Skip to main content
Internet Archive's 25th Anniversary Logo

Full text of "El Desarrollo Moderno De La Filosofía De La Ciencia Moulines"

See other formats


C. UL IS ES MOULINES 


EL DESARROLLO MODERNO 
DE LA FILOSOFÍA DE LA CIENCIA 

( 1890 - 2000 ) 


Traducción: 
Xavier de Donato 



UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO 
INSTITUTO DE INVESTIGACIONES FILOSÓFICAS 
México 2011 


Q175 
M6818 . 

Ei desarrollo moderno de la filosofía de la ciencia 
(1890-2000) / G. Ulises Moulines; traducción: Xavier 
de Donato. - México: UNAM, Instituto de Investigacio- 
nes Filosóficas, 2011 

186 pp. - (Colección Filosofía de la ciencia) 
Traducción de: Die Entwicjdung der modernen Wis- 
senschaftstheorie (1890-2000): eine historische Ein- 
führung 

ISBN 978-607-02-2366-2 

1. Ciencia - Filosofía - Historia. I. Donato, Xavier de, 
tr. II. t. II. Ser. 


Título original en alemán: 

Die Entwicklung der modernen 

Wissenschaftstheorie ( 1890-2000): Eine historische Einjuhrung 
Copyright © Lit Verlag, Hamburgo, 2008, by C. Ulises Moulines 


Cuidado de la edición, composición y formación tipográfica: 
Claudia Chávez Aguilar 

Primera edición en español: 2 de agosto de 2011 
D.R. © 2011 Universidad Nacional Autónoma de México 


Prohibida la reproducción total o parcial por cualquier medio 
sin la autorización escrita del titular de los derechos patrimoniales. 

INSTITUTO DE INVESTIGACIONES FILOSÓFICAS 
Ciudad Universitaria, Delegación Coyoacán, 

C.P. 04510, México, Distrito Federal 
Tels.: 5622 7437 y 5622 7504; fax: 5665 4991 
Correo electrónico: libros@filosoficas.unam.mx 
página web: http://www.filosoficas.unam.mx 

Todos los derechos reservados 


Impreso y hecho en México 
ISBN 978-607-02-2366-2 




Frologo 


Lo que aquí propongo al lector es una visión de conjunto del desa- 
rrollo de la historia de la filosofía de la ciencia, desde sus inicios ins- 
titucionales hasta nuestros días. Esta visión no puede ser cbmpleta 
ni totalmente neutra. Expuesta necesariamente desde una perspec- 
tiva particular —la mía—, esta historia intenta abocarse a la parte de 
la herencia de nuestra disciplina que me parece más significativa y 
poner énfasis en los aspectos de su evolución que, desde el punto de 
vista actual, han tenido mayor impacto en sus ulteriores desarrollos 
temáticos y metodológicos. Me he esforzado, sin embargo, en ser lo 
menos subjetivo posible en el relato de la historia de la disciplina y 
en subrayar prioritariamente los aspectos positivos de los enfoques 
examinados; cuando he hecho juicios críticos, he intentado hacerlo 
situándome dentro de la lógica inherente a los autores considerados. 

Tal vez para comenzar el lector desee tener una respuesta general 
a la pregunta: “¿qué es la filosofía de la ciencia?”. Hasta el momento 
no existe ningún consenso sobre los contenidos ni sobre los mé- 
todos esenciales a esta disciplina. Cualquier determinación global 
que se adopte es ya una toma de posición más o menos sujeta a 
controversia. Para definir nuestra disciplina, adoptaré más bien un 
punto de vista externo, “institucional”. Por todo el mundo, encon- 
tramos cátedras universitarias e institutos con nombres que inclu- 
yen las expresiones “filosofía de la ciencia” o, más frecuentemente, 
“historia y filosofía de la ciencia” o aun “lógica y filosofía de la cien- 
cia” (una diferencia en la denominación que no es inocente y que, 
como veremos, tiene sus raíces en lá historia misma de la discipli- 
na). Asimismo existe una asociación internacional llamada “Logic, 
Methodology and Philosophy of Science”, así como una “Académie 
intemationale de philosophie des Sciences” —ambas organizan con- 
gresos regularmente—. Numerosas revistas como Philosophy of Sci- 



6 El desarrollo moderno de la filosofía de la ciencia ( 1890-2000) 

ence, British Journal for the Philosophy of Science, Studies in the History 
and Philosophy of Science, Philosophia ^jfáturalis, Zeitschrift fiir allgemei- 
ne Wissenschaftstheorie (la cual, por cierto, recientemente “internacio- 
nalizó” su nombre sustituyéndolo por Journal for General Philosophy 
of Science) han visto la luz, asi como aquéllas con títulos más neu- 
trales, pero reconocidas como órganos más o menos oficiosos de la 
filosofía de la.ciencia contemporánea. como Erkenntnis, Synthese, The 
Journal of Philosophy o Dialéctica . Finalmente, series de colecciones 
como Minnesota Studies in the Philosophy of the Sciences , Boston Studies 
in the Philosophy of Science o aun Poznan Studies in the Philosophy of 
Science and the Humanities han sido —o todavía son— publicadas re- 
gularmente. El objeto de este libro consiste, pues, en una serie de 
autores, enfoques, métodos y resultados que se han expresado o dis- 
cutido a lo largo del siglo xx, principalmente en las asociaciones, 
congresos, revistas y colecciones ya mencionados. Lo anterior me 
permitirá abordar, de una manera menos polémica, la cuestión del 
desarrollo histórico de la filosofía de la ciencia así “definida”. 

Para evitar posibles malentendidos por parte del lector no inicia- 
do, de entrada se señalan tres advertencias. Conviene indicar desde 
un principio que la filosofía de la ciencia ha devenido una discipli- 
na fuertemente especializada, que es necesario distinguir de otras 
disciplinas que mantienen con ella relaciones más o menos estre- 
chas, pero que tienen propósitos y métodos claramente diferentes. 
En ciertos aspectos, la filosofía de la ciencia, que es una disciplina re- 
ciente, tiene relaciones temáticas con otra disciplina filosófica mucho 
más antigua, la teoría (o filosofía) del conocimiento. Sin embargo, 
estas relaciones no conciernen más que a una parte de esas dos disci- 
plinas, las cuales siguen una metodología bastante diferente. El objeto 
de la reflexión filosófica es también diferente en ambas disciplinas: 
mientras que la teoría del conocimiento se ocupa de las condicio- 
nes y límites del conocimiento humano en general, la filosofía de la 
ciencia analiza la estructura y el funcionamiento de esta forma muy 
particular de conocimiento que es el conocimiento científico, y más 
especialmente el proporcionado por las teorías científicas. Este libro 
se concentra, pues, en la evolución de la filosofía de la ciencia stric- 
to sensu , lo que naturalmente no excluye que contenga, aquí o allá 
referencias a problemas, a corrientes de pensamiento o a autores 
que también pudieran tener su lugar en una historia de la teoría del 
conocimiento. 

Pero su objeto —el conocimiento científico— no basta para carac- 
terizar la filosofía de la ciencia. Otras disciplinas también toman 



Prólogo 


7 


ciertos aspectos de las ciencias como objeto de estudio. Ahora bien, 
la disciplina que aquí nos interesa no es una sociología de la ciencia, 
ni una historiografía de la ciencia, ni una ética de la ciencia —mucho 
menos aún ese conjunto de reflexiones al que se suelen dedicar con 
gusto los científicos renombrados cuando llegan a cierta edad—. La 
filosofía de la ciencia es fundamentalmente una disciplina teórica de 
“segundo orden ” en relación con las ciencias existentes, es decir, una 
“metaciencia”. Para decirlo escuetamente, el objetivo de la filosofía 
de la ciencia es construir modelos (metacientíficos) para elucidar lo 
que es esencial en los conceptos, teorías, métodos y relaciones mu- 
tuas que se dan entre las ciencias establecidas. Y justamente en este 
sentido es, pura y claramente, una disciplina ante todo filosófica . 

Un término casi sinónimo de “filosofía de la ciencia” en el sentido 
en que la entiendo aquí es. el más tradicional de “epistemología”. 1 
Este término tiene contornos semánticos más generales que, por lo 
regular, corresponden mejor a la teoría general del conocimiento. 
No lo usaré, pues, más que ocasionalmente y para referirme a lo 
que tenga que ver con capacidade5 del conocimiento humano en un 
contexto principalmente científico. 

Una segunda advertencia concierne a los límites de las disciplinas 
que son el objeto estudiado por la filosofía de la ciencia. Se trata 
de ciencias que, en lenguas europeas distintas de la ff ancesa, se sue- 
len llamar “empíricas” (física, química, biología, psicología, econo- 
mía, etc.) —es decir, disciplinas cuya validez depende, aunque sea de 
una manera muy indirecta, de aquello que llamamos “experiencia 
sensible”—. Aquí, pues, utilizaré el calificativo “empírico” para de- 
signar el conjunto de disciplinas de la naturaleza o de la sociedad, 
y excluiré las disciplinas puramente formales como la lógica o las 
matemáticas. Si bien este uso del término “ciencias empíricas” no 
está muy extendido entre los autores de lengua francesa (quienes 
a veces prefieren “ciencias de lo real”, 2 cuyo inconveniente es que 

1 “Epistemología”, eu su acepción más habitual tanto en español como en inglés, 
es sinónimo de “teoría del conocimiento” (lo que en alemán se llama “Erkenntnis- 
theorie”). Sin embargo, en francés “épistémologie" es, por lo general, un sinónimo 
de “filosofía de la ciencia”. Así se señala, por ejemplo, en el Dictionnaire de la laiigué 
philosophique de Paul Foulquié (P.U.F., París, 1962, p. 217), donde se dice que es la 
acepción no sólo más común en esa lengua, sino incluso la más conforme con la 
etimología. No obstante, el término tiene también otros usos. Véase la Encyclopédie 
de pkilosophie universelle II, publicada bajo la dirección de André Jacob, Les Notions 
pkilosophiques, tome 1, P.U.F., París, 1990, p. 813. [Cuando no se indique lo contrario, 
las notas corresponden al autor. N. del t] 

■ 2 En francés, “sciences du réel”. [N. del t.] 



8 El desarrollo moderno de la filosofía de la ciencia ( 1890-2000) 

implica que se tome partido acerca de lo que es real y lo que no lo 
es), sí permite distinguir claramente la reflexión filosófica sobre las 
ciencias de la naturaleza y la seriedad (aun cuando éstas aparezcan 
en forma altamente “matematizada”) de la reflexión filosófica sobre 
la lógica y las matemáticas “puras”. Entiendo aquí por “filosofía de 
la ciencia” exclusivamente la filosofía de las ciencias empíricas . Esto 
implica, en la historia de nuestra disciplina, dejar completamente a 
un lado la filosofía de las matemátipás , disciplina aún más especiali- 
zada que la filosofía de las ciencias empíricas, y que ha tenido un 
desarrollo extraordinario a ló largo del siglo XX. Este desarrollo ha 
sido casi por completo independiente de cuestiones filosóficas plan- 
teadas desde las ciencias empíricas, aunque las dos metadisciplinas 
tengan influencia mutua. > 

Una tercera advertencia tiene que ver con el grado de generalidad 
que pretenden tener las doctrinas sobre las ciencias que aquí exami- 
naré. Se trata de teorías generales sobre las ciencias (empíricas) o, lo 
que es lo mismo, de teorías sobre las ciencias (empíricas) en general . 
En el transcurso del siglo XX, y sobre todo durante sus últimos de- 
cenios, se llevaron a cabo un número considerable de investigacio- 
nes sumamente interesantes sobre problemas lógico-metodológicos 
o epistemológicos de disciplinas científicas particulares, incluidas 
teorías estudiadas individualmente. Existe así no sólo una filosofía 
de la física, de la biología, de la economía, etc., sino incluso una 
filosofía de la teoría especial de la relatividad, una filosofía de la 
mecánica cuántica, una filosofía de la teoría de la evolución,. . . Hoy 
en día es común distinguir la filosofía general de la ciencia de la fi- 
losofía especial de las ciencias, es decir, de la filosofía de las ciencias 
particulares. -Muchos de los autores y grupos de investigadores que 
estudiaré en este libro han hecho contribuciones importantes no 
sólo a la primera, sino también a la segunda. No obstante, los pro- 
blemas y métodos de anáfisis de una y otra (aunque frecuentemente 
se hallen en relación de influencia mutua) no son idénticos. Discutir 
las diferentes contribuciones a la filosofía especial de las ciencias del 
siglo XX no es el propósito de la presente obra. 

Dada la naturaleza deliberadamente panorámica de mi exposi- 
ción, he tratado de recurrir lo menos posible a una terminología 
esotérica y a detalles técnicos (que en la filosofía de la ciencia con- 
temporánea están frecuentemente vinculados al uso de la lógica y 
de las ramas fundamentales de la matemática como instrumentos de 
análisis). Este libro no ha sido concebido para un público especiali- 
zado, sino para todos aquellos que, provenientes de las más diversas 



Prólogo 


9 


disciplinas (comprendida la filosofía), deseen contar con una visión 
global del desarrollo de esta disciplina relativamente reciente que 
es la filosofía de la ciencia. Sólo se presupone un conocimiento ele- 
mental de los autores e ideas filosóficas y científicas; por lo demás, 
he intentado evitar conceptos demasiado, específicos de la discipli- 
na y, en caso de no poder evitarlo, ofrezco explicaciones intuitivas, 
comprensibles para todo el mundo. En este sentido, esta obra puede 
leerse como una introducción no solamente histórica, sino también 
temática a la filosofía de la ciencia contemporánea. Por supuesto 
no pretende ser la única de este género en francés . 3 Sin embargo, 
se distingue de las otras obras por su intento de situar los temas, 
enfoques y autores de la filosofía de la ciencia dentro de una pers- 
pectiva histórica coherente y continua desde fines del siglo XIX hasta 
nuestros días. He puesto más énfasis en las corrientes generales y en 
el contexto en él cual aparecen las ideas y los enfoques que en los 
detalles biobibliográficos de los autores involucrados . 4 Los textos 
siempre se citan de acuerdb con el título original. 

Para terminar diré algo acerca de la génesis de este libro. Durante 
más de treinta años me he consagrado al estudio de temas centrales 
de la filosofía de la ciencia contemporánea y, al mismo tiempo si 
bien he tratado de contribuir personalmente al esclarecimiento de 
algunas cuestiones históricas concernientes al desarrollo de la dis- 
ciplina, la parte más sustancial del trabajo* que he realizado hasta 
fechas recientes es de tipo sistemático y no historiográfico. Mi nom- 
bramiento para una cátedra internacional de investigación “Blaise 
Pascal” en la École Nórmale Supérieure (París), me dio la oportunidad 
y el tiempo necesario para reflexionar sobre la estructura diacrónica 
de mi propia disciplina. A sugerencia de Claüde Debru, profesor de 
filosofía de la ciencia en la École Nórmale Siipérieure (con quien es- 
toy particularmente agradecido), impartí una serie de conferencias 
titulada “Un siglo de filosofía de la ciencia”, orientada a profesores y 

3 A riesgo de ser injusto con otras obras, mencionamos solamente tres, de recien- 
te aparición, muy útiles como introducciones temáticas a la filosofía de la ciencia: 
La philosophie des Sciences au XX e siécle , de A. Barberousse, M. Kistler y P. Ludwig, así . 
como las dos colecciones de ensayos, ambas en dos volúmenes, Philosophie des sci - ' 
enees , dirigidas respectivamente por D. Andler, A. Fagot-Largeault y B. Saint-Sernin, 
y por S. Laugier y P. Wagner (véase la bibliografía, pp. 167-17S). 

4 La primera vez que aparece citado un autor, se indican entre paréntesis el país 
de origen (y eventualmente el país donde se.’ formó si es diferente del primero) 
así como el año de nacimiento (salvo para algunos autores contemporáneos que 
parecen no desear que se publique este género de información) y, en su caso, de 
deceso. 



10 El desarrollo moderno de la filosofía de la ciencia (1890-2000) 


estudiantes pertenecientes a disciplinas diversas. La presente obra es 
fruto de una revisión ulterior y de una profundización de las notas 
elaboradas para dicha ocasión. 

Agradezco también a Andrei Rodiny, sobre todo, a Charles-David 
Wajnberg —mis dos colaboradores durante mi estancia parisina—, 
cuyos comentarios y revisiones a mi texto me fueron de gran utili- 
dad. Expreso todo mi reconocimiento,, a Francis Wolff, director del 
departamento de filosofía de la Écqle Nórmale Supérieure, por su va- 
liosa relectura. No siendo francófono de origen, debo igualmente 
agradecer a Lude Marignac y Marie-Héléne Ravenel, de las Éditions 
Rué d’Ulm, la paciente labor de revisión estilística que realizaron a 
partir del manuscrito. Last but not least , estoy en deuda con la región 
Iie-de-France por su generosidad al concederme una beca anual, efi- 
cazmente gestionada por la Fundación de la ENS. También debo 
agradecer a la propia ENS el haberme acogido en sus laboratorios. 
Gracias a estas instituciones pude redactar la mayor parte de este 
libro durante el año académico 2003-2004. 

Finalmente, debo hacer notar que el presente texto en castellano, 
debido a la traducción de Xavier de Donato, no es por su conteni- 
do exactamente idéntico a la versión original en francés. El presen- 
te texto ha surgido de una revisión sustancial y de una ampliación 
de la versión francesa —revisión y ampliación que primero redacté 
para la versión en alemán de esta obra, publicada bajo el título “Die 
Entwicklung der modemen Wissenschaftstheorie (1890-2000): Eine 
historische Einführung” por la editorial Lit-Verlag, Münster, 2008—. 
Las nuevas partes en lengua alemana también han sido traducidas 
por el doctor de Donato para la presente edición en castellano. En 
parte, las revisiones y añadidos actuales se han basado en sugeren- 
cias hechas por el propio doctor de Donato y por el doctor Ralph 
Cahn (Munich). Ambos también son merecedores de mi agrade- 
cimiento. 

Un agradecimiento muy especial de mi parte merece también mi 
amiga y colega de tantos años, la doctora Margarita Valdés, del Ins- 
tituto de Investigaciones Filosóficas de la UNAM, cuyo apoyo infati- 
gable ha sido esencial para la publicación de este libro en lengua 
castellana. 


Carlos Ulises Moulines 
m París-Munich, septiembre 2005 



UNA VISIÓN DE CONJUNTO 


L Los inicios institucionales 

La filosofía de la ciencia, en tanto que disciplina filosófica dotada 
de un perfil institucional propio, de una temática bien delimitada, 
con cátedras universitarias e institutos dedicados específicamente 
a ella, nació prácticamente con el siglo XX. Para ser más precisos, 
surge en cuestión de algunos decenios entre finales del siglo XIX y 
la Primera Guerra Mundial, primeramente en los países de habla 
alemana, y luego casi en todos los países de Europa occidental y 
central, Estados Unidos y, finalmente, Canadá y América Latina. 

La primera cátedra claramente dedicada a la “filosofía inductiva” 
íue creada en la Universidad de Zurich en 1870, con el objeto de 
tender un puente entre la epistemología tradicional y los desarrollos 
más recientes acerca de los fundamentos de las ciencias “inductivas”. 
“Ciencias inductivas” se convierte en el término consagrado, duran-" 
te todo el siglo XIX y el primer cuarto del siglo XX, para el conjunto 
de las disciplinas reunidas hoy dentro de la categoría de “ciencias 
empíricas” (véase el prólogo, p. 8). La elección de esta expresión 
esconde ya una toma de partido de carácter metodológico que mar- 
caría durante cierto tiempo el desarrollo de la disciplina que estudia 
estas ciencias: parecía entonces evidente que el método que carac- 
teriza las ciencias de la naturaleza y de la sociedad es la inducción, 
por oposición a la deducción, método específico de la lógica y de la 
matemática pura. Esta “evidencia” —o supuesta evidencia— ha sido 
abandonada después de varios años de discusión en el seno mismo 
de la filosofía de la ciencia. Hoy en día no se habla más de “ciencias 
inductivas”, y las razones de este cambio terminológico constituyen 
también una parte importante de la historia de la disciplina. 

Esta primera cátedra de filosofía de la ciencia en Zurich no tuvo 
mucho impacto en la constitución de la disciplina por razones in- 



12 El desarrollo moderno de la filosofía de la ciencia ( 1890-2000) 

herentes a la política intema de la universidad. Mucho más impor- 
tante fue, en cambio, la creación —un cuarto de siglo más tarde, en 
1895, en la Universidad de Viena— de la cátedra “Historia y teoría 
de las ciencias inductivas”. Esta cátedra fue creada para Ernst Mach 
(Austria, 1836-1916), una de las personalidades científicas más des- 
tacadas de la época y considerado retrospectivamente como uno de 
los pioneros de la filosofía de la ciencia en su sentido actual. Cuan- 
do Mach se retiró, la cátedra se le asignó a Ludwig Boltzmann y, 
posteriormente, en 1922, a Moritz Schlick. Este último conformó un 
grupo de filósofos y científicos que en 1928 constituyó la Asociación 
Ernst Mach, la cual a su vez devino el “escaparate institucional” del 
famoso Círculo de Viena, un grupo de filósofos y científicos que se 
revelará decisivo (aunque no exclusivamente) en la constitución del 
perfil de la filosofía de la ciencia en el siglo XX. Durante el periodo 
de entreguerras, las características esenciales de la temática y de 
la metodología de la filosofía de la ciencia, en tanto que disciplina 
autónoma, quedan trazadas definitivamente. 

2. “Prehistoria” y “protohistoria” j 

La historia de la disciplina tiene sus raíces tanto en la historia de 
la filosofía como en la historia de la ciencia de épocas precedentes. 
Desde el momento en que una ciencia se constituye como disciplina 
autónoma en relación con la filosofía (por ejemplo; en la Antigüe- 
dad griega, la geometría y la astronomía), los filósofos inician una 
reflexión filosófica de “segundo orden” sobre esta disciplina, es de- 
cir, una reflexión metodológica y metateórica. Aristóteles puede ser 
considerado el primer filósofo de la ciencia en un sentido próximo 
al que le damos hoy. A él particularmente le debemos la idea de sis- 
tema axiomático como ideal de toda construcción de una teoría cien- 
tífica. Y no hay que olvidar que la axiomática ha desempeñado un 
papel de primerísimo orden en la filosofía de la ciencia del siglo XX. 

Seguramente habría mucho que decir en lo concerniente a la evo- 
lución de las ideas filosóficas sobre la ciencia, desde Aristóteles hasta 
la Ilustración; filósofos y científicos como Bacon, Descartes, Newton, 
Hume y los enciclopedistas proporcionaron reflexiones sobre el co- 
nocimiento científico de su tiempo que fácilmente podemos poner 
en relación con la temática contemporánea de la filosofía de la cien- 
cia. (Esto es verdad sobre todo con respecto a las Regulae philosophan- 
di que Newton incluyó al principio del tercer libro de su obra princi- 
pal, aparecida en 1687, Philosophiae Naturalis Principia Mathematica, 
y que pueden ser vistas como un pequeño tratado de metodología 



Una visión de conjunto . 


13 


en.elsentido actual.) Pero siendo mi objetivo examinar la evolución 
de la filosofía de la ciencia contemporánea, propongo dar un gran 
salto hacia delante para pasar a Kant sin más preámbulos. 1 

Una razón fundamental nos hace privilegiar a Kant sobre los pen- 
sadores precedentes. La filosofía trascendental kantiana, en particu- 
lar en lo concerniente a las tesis presentadas en la Critica de la razón 
pura (1781) y en los Primeros principios metafísicas de la ciencia natural 
(1786), marca una etapa importante en lo que podemos llamar la 
“protohistoria” de nuestra disciplina. Esto es verdad no sólo porque 
el pensamiento kantiano ha influido fuertemente en las discusiones 
fílosófico-científicas hasta mediados del siglo XX, sino también por- 
que el enfoque kantiano se puede interpretar como un primer ejem- 
plo de metateoría sistemática, es decir, como la construcción de un 
“modelo”, en el sentido moderno, de la estructura conceptual de las 
teorías científicas (resulta, pues, verosímil que Kant mismo empleara 
el término de “arquitectónica”, “Architektonik” en alemán). 2 

Kant toma como objeto de reflexión dos teorías ya bien estableci- 
das en su tiempo (la geometría euclídea y la mecánica newtoniana), 
y se pregunta qué estructura conceptual subyacente podría explicar 
por qué estas dos teorías, a pesar de ser tan “abstractas”, ofrecen 
un conocimiento preciso y eficaz de la realidad empírica. La con- 
cepción general kantiana de los juicios sintéticos a priori , de las ca- 
tegorías y de las formas puras de la intuición (espacio y tiempo) 
puede interpretarse como una metateoría general de las teorías de 
las ciencias empíricas matematizadas (representadas por lo que hoy 
llamamos la geometría física y la mecánica clásica). Estos elementos 
a la vez sintéticos (es decir, con un contenido sustancial) y a priori (es 
decir, independientes de la experiencia) nos permiten comprender 
por qué la matematización de las ciencias de la naturaleza nos da un 
conocimiento cierto y exacto de la realidad empírica. 

Raros son los filósofos de la ciencia que aún hoy aceptan el con- 
junto de la metateoría kantiana. Sin embargo, Kant estableció las 
bases de la discusión sobre muchos temas centrales de la filosofía de 
la ciencia, tales como la función de las matemáticas en las ciencias 
empíricas, la naturaleza de las leyes científicas, el valor del principio 
de causalidad o aun la esencia del espacio y del tiempo. Muy parti- 
cularmente, la doble distinción kantiana analítico/sintético y a prio - 

2 Para mayor información a propósito de las ideas filosóficas sobre la ciencia 
anteriores a Kant, véanse P. Wagner (dir.), Les philosophes et la science , y J. Losee, A 
Historical Introduction to the Philosophy of Science. 

' 2 Véase, por ejemplo, la Crítica de la razón pura, B860/A832. 



14 El desarrollo moderno de la filosofía de la ciencia ( 1890-2000) 


ri/a posteriori, igual que la existencia de elementos sintéticos a priori 
en nuestro conocimiento científico, ocupa un lugar central en los 
debates epistemológicos del siglo XX, aun cuando estas categorías 
conceptuales han sido reinterpretadas o definidas de una manera 
diferente en relación con el modelo kantiano, como se verá más 
adelante. 

De los filósofos del idealismo alemán posteriores a Kant no puede 
decirse propiamente que hayan contribuido de manera significativa 
a la filosofía de la ciencia en el sentido en que la entendemos aquí. 
Su objetivo, sobre todo en el caso de Hegel y Schelling, fue más 
bien construir una filosofía de la naturaleza , es decir, una especula- 
ción directa (de “primer orden”) sobre la realidad empírica, basada 
en sus respectivos sistemas metafíisicos. En realidad, estos filósofos 
aceptaban poco o se oponían francamente (como muestran las críti- 
cas acerbas de Hegel en contra de Newton) al espíritu de la ciencia 
moderna tal y como se había desarrollado a partir, del siglo XVII. 
Extrapolando un poco, se podría interpretar la “filosofía de la natu- 
raleza” de Schelling y Hegel como intentos de proponer programas 
de investigación alternativos a los que habían constituido las ciencias 
a partir de la “revolución científica” del siglo XVII. Estos programas, 
sin embargo, casi no tuvieron repercusión sobre la investigación pos- 
terior, al menos en el campo de las ciencias naturales. 

Tras el paréntesis del idealismo alemán, Auguste Comte (Francia, 
1798-1852), fundador del positivismo, da un nuevo impulso a la 
filosofía de la ciencia como reflexión de “segundo orden” sobre las 
ciencias establecidas durante el segundo cuarto del siglo XIX. Comte 
construyó un sistema clasificatorio y jerárquico de las ciencias des- 
de una perspectiva sincrónica y diacrónica a la vez, que le permite 
explicar su desarrollo y formular, por así decirlo, unas “normas de 
la buena conducta científica”. Sus ideas, con el rechazo radical de 
toda especulación metafísica, gozaron de una gran influencia en su 
época, no sólo en los filósofos, sino también en los científicos, parti- 
cularmente en la medicina y en las ciencias sociales. 

También en Inglaterra se había desarrollado un interés particular 
por las cuestiones metodológicas de las ciencias naturales hacia la 
mitad del siglo XIX. Los tres pensadores más característicos en este 
sentido son sin duda John Herschel (1792-1871), William Whewell 
(1794-1866) yjohn Stuart Mili (1806-1873). Los dos primeros eran, 
además, influyentes hombres de ciencia (y Whewell era también un 
reconocido historiador de la ciencia), mientras que el tercero era 
un exitoso hombre de negocios convertido en reformador político y 



Una visión de conjunto 


15 


publicista. Al igual que Comte, no querían dar paso a la metafísica 
especulativa y se guiaban más por las ciencias naturales estableci- 
das en su tiempo. Al contrario de Comte, no se interesaron por 
la cuestión de la clasificación sistemática de las ciencias, sino más 
bien por la fundamentación de una metodología general del cono- 
cimiento empírico. Es común para los tres autores el lugar central 
que ocupa en sus reflexiones el concepto de inducción como méto- 
do fundamental de la investigación empírica. Sin embargo, en su 
caso, la inducción no representa —como en la tradición filosófica 
precedente— un sistema de reglas formales de inferencia que supues- 
tamente debieran permitir derivar regularidades generales a partir 
de observaciones particulares, sino la construcción de hipótesis ri- 
vales sobre un determinado campo de investigación, que deben ser 
contrastadas de diversas maneras con la experiencia. A nivel más 
sistemático, Mili intentó identificar y formular lo más exactamen- 
te posible los diferentes métodos inductivos de apoyo de hipótesis. 
Mili pretendió que, en condiciones especialmente favorables, debía 
ser posible alcanzar los fundamentos absolutamente seguros de las 
ciencias empíricas (como la física) a través de la aplicación sistemá- 
tica dé los métodos inductivos expücitados por él. Por el contrario, 
Whewell se mantuvo escéptico frente a esta posibilidad; según él, 
no se puede afirmar —por principio— la verdad definitiva de las hi- 
pótesis empíricas. En este sentido, el falibilismo de Whewell está más 
cerca que Mili del desarrollo de la filosofía de la ciencia del siglo XX, 
en especial del racionalismo crítico (véase el capítulo 4); pese a ello, 
Mili resultó más influyente que Whewell en la filosofía de la ciencia 
inmediatamente posterior. 

Sea a causa del idealismo alemán, del positivismo francés o del 
inductivismo británico, el caso es que el pensamiento de Kant en 
relación con los fundamentos de las ciencias naturales quedó al mar- 
gen durante la mayor parte del siglo XIX. Esto se debió no sólo a la 
evolución interna de la filosofía, sino quizá todavía más al hecho de 
que el desarrollo enorme que las ciencias empíricas experimenta- 
ron a lo largo del siglo XIX se produjo de un modo completamente 
independiente de las cuestiones sobre el fundamento del conoci- 
miento científico que Kant había planteado. Además, ciertos resulta- 
dos científicos obtenidos durante este periodo, en particular el auge 
de las geometrías no euclídeas hacia la mitad del siglo, aparecían 
como una refutación definitiva de la idea kantiana de la existencia 
de un elemento sintético apriori en los fundamentos de las ciencias. 
Paradójicamente, fue la discusión en torno a la importancia de las 



16 El desarrollo moderno de la filosofía de la ciencia ( 1890-2000) 


geometrías no euclídeas y otros resultados científicos desconocidos 
de Kant, como la nueva fisiología de los sentidos, lo que conduciría 
poco a poco a algunos pensadores a interesarse de muevo por Kant. 
Más que el contenido de los postulados kantianos, fue la manera 
general en que Kant planteó las cuestiones lo que atrajo a quienes 
se preguntaban por las características esenciales del conocimiento 
científico. Hermann von Helmholtz (Alemania, 1821-1894) es quizá 
el ejemplo más destacable de este cambio de actitud intelectual. Fi- 
siólogo, físico y matemático, además de epistemólogo, sus investiga- 
ciones sobre la psicofisiología de los sentidos, la terínodinámica y la 
geometría tendrían una gran repercusión en la ciencia de su tiempo. 
Sus reflexiones de “segundo orden” sobre sus propias investigacio- 
nes y las de sus contemporáneos científicos, más o menos inspiradas 
en Kant, orientarían al menos una parte de la fase de germinación 
de la filosofía de la ciencia contemporánea. 

Los últimos años del siglo XIX y los primeros del siglo XX son 
testimonio de una verdadera “resurrección” del interés por Kant, 
tanto en los medios estrictamente filosóficos como entre los investi- 
gadores que se ocupan de los fundamentos de las ciencias. Es pre- 
cisamente en este periodo que la filosofía de la ciencia se comienza 
a perfilar como una disciplina autónoma. Sin duda, entre los “filó- 
sofos puros” de este periodo hay que mencionar la escuela de los 
neokantianos y, particularmente en lo que concierne a la reflexión 
sobre las ciencias naturales, a Emst Cassirer (Alemania, 1874-1945). 
Durante muchos años, y hasta la mitad del siglo XX, Cassirer intentó 
mostrar la compatibilidad de la epistemología kantiana con los nue- 
vos resultados científicos (no sólo en geometría, sino sobre todo en 
física). Hay que reconocer, sin embargo, que el neokantismo simple- 
mente no ha participado en la construcción de la temática específica 
de la filosofía de la ciencia contemporánea. El papel primordial en 
la construcción de nuestra disciplina corrió a cargo de una serie 
de científicos de orientación filosófica que, aun siendo críticos con 
respecto a las tesis kantianas, supieron reemprender las cuestiones 
planteadas por Kant, de una forma directa, o a través de la lectura 
de las reflexiones de orden kantiano realizadas por otros autores 
de la generación inmediatamente precedente, siendo Helmholtz el 
primero de ellos. Éste es precisamente el lugar en el que entramos 
en el meollo de nuestra disciplina; 



Una visión de conjunto 


17 


, 3. Las cinco fases del desarrollo 

A modo de hipótesis de trabajo y para orientarnos en nuestra expo- 
sición, postulamos que, en el desarrollo de la filosofía de la ciencia 
desde los últimos años del siglo XIX hasta el fin del siglo XX, se 
pueden distinguir cinco grandes fases . (Por supuesto aquí hablamos 
de “fases” y no de “periodos históricos” en sentido estricto: se trata 
más bien de maneras diferentes de comprender la tarea de la filo- 
sofía de la ciencia que más o menos se suceden en el tiempo, pero 
que también se pueden solapar y, a veces incluso, desarrollar en 
paralelo.) 

La fase de germinación o de preformación (de 1890 aproximada- 
mente hasta el fin de la Primera Guerra Mundial) está caracterizada 
principalmente por reflexiones epistemológicas y metodológicas de 
ciertos científicos (físicos y fisiólogos) y de algunos filósofos dotados 
de conocimientos científicos sólidos, así como por influencias más 
o menos directas de Ka,nt y de la fisiología de los sentidos del si- 
glo XIX. El empiriocriticismo y el convencionalismo representan las 
corrientes más destacadas dé esta fase. El interés por la historia de 
la ciencia no es insignificante, pero tampoco decisivo. 

La fase de eclosión (1918-1935) se define por la irrupción intensa 
y generalizada de métodos de análisis formal (lógica formal, axio- 
mática hilbertiana, teoría de conjuntos) y por la vinculación con los 
problemas de los fundamentos de la matemática, así como por una 
clara voluntad de ruptura con las tradiciones epistemológicas pre- 
cedentes y una postura polémica contra toda forma de metafísica. 
Se considera que el proyecto kantiano tiene que abandonarse défi- 
nitivamente. Es la época del positivismo y empirismo lógicos, del 
operacionalismo y de otras corrientes afines. 

La fase clásica (aproximadamente de 1935 a 1970) presenta bási- 
camente una continuidad, al menos temática y metodológica, con 
respecto a la fase precedente; sin embargo, es al mismo tiempo más 
autocrítica y más “serena”. Aporta asimismo numerosos y sólidos 
resultados formales (aunque a menudo negativos), y favorece los es- 
tudios de detalle a veces extremadamente técnicos. No podemos ha- 
blar aquí de una escuela dominante, sino más bien de una “familia” 
con un aire vagamente empirista en un sentido bastante amplio (que 
debería incluir el “racionalismo crítico” y la concepción hipotético- 
deductiva del método científico). Existe un amplio consenso de que 
durante esta fase la filosofía de la ciencia se consolida definitivamen- 
. te como disciplina. (En esta época es cuando aparecieron la mayor 
parte de los centros, los congresos, las revistas, las antologías, etc. 



18 El desarrollo moderno de la filosofía de la ciencia ( 1890-2000) 


cuyos nombres hacían referencia explícita a la “filosofía de la cien- 
cia”.) Los filósofos de la ciencia que vinieron después, sobre todo 
aquellos que estaban en desacuerdo con las posturas características 
de ésta fase, frecuentemente se refieren a ella como una “concep- 
ción heredada” ( received view), —aunque el uso del singular en esta 
expresión resulta bastante inadecuado—. 

La fase historicista (aproximadamente de 1960 a 1985) explícita- 
mente se opone en su totalidacba los presupuestos de contenido y 
de método de las fases anteriores, y subraya al mismo tiempo la 
importancia capital de la historia de la ciencia para una filosofía 
“realista” de la ciencia. Asimismo, esta fase ignora e incluso niega 
abiertamente la utilidad de los métodos de análisis formal. El empi- 
rismo lógico y el racionalismo crítico se arrojan al “vertedero de la 
historia”. Otro aspecto de esta fase, aunque no se hiciera casi nunca 
explícito, es una fuerte tendencia al relativismo epistémico y al so- 
ciologismo en lo que concierne a los fundamentos del conocimiento 
científico. 

A partir de 1970, la fase modelista (en ausencia de un término 
más atractivo) aporta una mirada bastante crítica sobre los presu- 
puestos de las fases segunda y tercera, aunque sin eí carácter po- 
lémico de la cuarta, y sin rechazar en bloque la utilidad, en algu- 
nos contextos, de instrumentos formales de análisis. Más aún que en 
las fases precedentes es difícil hablar en este caso de una corriente 
única. Antes bien se trata de una familia mal definida de enfoques 
mucho más prudentes y flexibles que los precedentes. Más todavía, 
hay que reconocer que la insuficiente perspectiva histórica hace di- 
fícil la identificación de los rasgos más característicos de esta fase. 
Sin embargo, se pueden señalar dos “denominadores comunes”: un 
giro “antilingüístico” en relación con las corrientes precedentes, que 
privilegia la noción de modelo frente a la de proposición como unidad 
básica del conocimiento científico, y el papel central desempeña- 
do por las reconstrucciones, lo más detalladas posible, de teorías 
científicas concretas. Resulta sintomático que esta fase vea el surgi- 
miento de lo que se ha dado en llamar la “filosofía especial de la 
ciencia” —filosofía de la física, de la biología, de la economía, etc—. 
Sin embargo, también encontramos algunos enfoques relativamen- 
te sistemáticos alimentados por ambiciones generalizadoras, siendo 
probablemente los más significativos el estructuralismo (metateórico) 
y el empirismo constructivo . 



2 


FASE DE GERMINACIÓN 
O DE PREFORMACIÓN: 
EMPIRIOCRITICISMO 
Y CONVENCIONALISMO (1890-1918) 


1. El programa de Ernst Mach 

Los últimos decenios del siglo XIX atestiguan una recepción crítica 
de Kant relacionada con la cuestión de los fundamentos de las cien- 
cias empíricas (sobre todo de la física) y con los nuevos resultados de 
la fisiología de los sentidos, que coincide con el establecimiento de la 
filosofía de la ciencia como nueva disciplina universitaria en los 
países de lengua alemana. La mayor parte de los protagonistas de 
esta corriente son físicos y fisiólogos con intereses filosóficos, sin 
embargo, también encontramos algunos filósofos profesionales. Se 
pueden resumir de la siguiente manera las principales preocupacio- 
nes de estos pensadores: 

—aportación de nuevos fundamentos a las ciencias físicas, toman- 
do en cuenta los resultados de la fisiología de los sentidos (uno po- 
dría incluso hablar del proyecto de dar una base psicofisiológica a 
los conceptos y principios fundamentales de la física); 

—restablecimiento de la unidad de todas las ciencias empíricas; 

—“expulsión” definitiva de las especulaciones metafísicas del do- 
minio de la ciencia. 

El origen de estas preocupaciones se debe esencialmente al desa- 
rrollo de las ciencias físicas mismas en el curso del siglo XIX. Un 
poco antes de la invención de la teoría especial de la relatividad 
. (1905), los más eminentes físicos teóricos, particularmente en Ale- 
mania, se volvieron conscientes de que los fundamentos de la física 



20 El desarrollo moderno de la filosofía de la ciencia ( 1890-2000) 


no eran tan sólidos como se creía» El auge de la termodinámica y de 
la electrodinámica durante la segunda mitad del siglo XIX, como dis- 
ciplinas independientes de la mecánica, hizo dudar del presupuesto 
clásico de que la mecánica newtoniana podría ser el marco univer- 
salmente válido que permitiría explicar los fenómenos naturales. 
Incluso los conceptos más fundamentales de la mecánica —masa y 
fuerza— se muestran poco claros y hasta “metafísicos” a la luz del 
análisis. Por otro lado, otras disciplinas ya bien establecidas, como 
la química y la fisiología, no parecen ser reducibles a los principios 
de la física. Ante la amenaza de que la ciencia se convirtiera en una 
suerte de cajón de sastre basado en fundamentos poco sólidos, surge 
la voluntad de “volver a comenzar”, de reconstruir el edificio único 
de la ciencia sobre nuevas bases. 

Emst Mach es, sin duda, el pensador más característico de esta 
postura crítica en relación con la física y el proyecto de reconstruir 
la unidad perdida sobre una base fenoménico-sensorial universal. 
En el prefacio a la primera edición de Die Analyse der Empfindungen 
(1886) [El análisis de las sensaciones], obra que enseguida veremos 
con más detalle, podemos entrever lo que condujo a Mach a de- 
jar momentáneamente de lado sus trabajos más especializados en 
el dominio de las ciencias naturales para aventurarse en el de la 
epistemología: “Profundamente convencido de que las ciencias en 
general —particularmente la física— esperan de la biología y, más 
concretamente, del análisis de las sensaciones orgánicas, las clarifi- 
caciones más importantes sobre sus fundamentos, me he adentrado 
en el estudio de este campo en muchas ocasiones.” 

Mach fue ante todo un discípulo de Helmholtz, conocido inicial- 
mente por sus trabajos sobre la termodinámica, la acústica y la fi- 
siología de los sentidos, y que posteriormente se interesó cada vez 
más por los fundamentos de la mecánica. Según él, esta disciplina 
debe ser fundada exclusivamente sobre conceptos estrictamente em- 
píricos, es decir, observacionales. Poco a poco, desarrolló así una 
nueva epistemología de la física (y de las ciencias en general) de 
tipo radicalmente empirista (o “empiriocriticista”, como se llamará 
más tarde), que se convertirá en un punto de referencia ineludible 
en los medios filosófico-cientíBcos de fines del siglo XIX y comienzos 
del siglo XX. Así, Heinrich Hertz (Alemania, 1857-1894) —autor de 
los Prinzipien der Mechanik (1895) [Principios de la mecánica], tra- 
tado paradigmático del nuevo enfoque sobre los fundamentos de la 
mecánica (y que, por otra parte, es una de las fuentes de inspiración 
epistemológica del primer Wittgenstein)— reconoce explícitamente 



Fase de germinación o de preformación 


21 


su deuda con Mach; y Albert Einstein (Alemania, 1879-1955) dirá 
mucho más tarde, en su Autobiografía intelectual, que la crítica ma- 
chiana de la mecánica clásica fue el elemento más decisivo en las 
reflexiones de juventud que le llevaron a concebir la teoría especial 
de la relatividad. 

Por razones un poco diferentes, las dos obras de Mach más signi- 
ficativas dentro de nuestro contexto (Die Mechanik in ihrer Entwick- 
lung historisch-kritisch dargestellt , 1883, y la ya citada Die Analyse der 
Empfindungen) son cruciales para comprender el desarrollo temáti- 
co ulterior de la filosofía de la ciencia. Lo más importante, dentro 
de la Mechanik, es la reformulación de la teoría mecánica por medio 
de una teoría puramente cinemática: los conceptos de fuerza y de 
masa no deben ser concebidos como fundamentales, sino más bien 
reducibles, por definición, a magnitudes puramente observables, es 
decir, resultantes de la experiencia humana directa; en este caso, 
se trata de la distancia entre los cuerpos en movimiento, del tiem- 
po transcurrido, de la velócidad y de la aceleración. Sólo hay que 
definir la fuerza como el producto de la masa por la aceleración 
(de ahí que el “segundo principio de Newtoii” no es ya un principio 
fundamental de la física, sino que pasa a ser una mera definición no- 
minal); la masa, a su vez, Mach la define mediante un procedimiento 
ingenioso a partir de las aceleraciones relativas de dos cuerpos en 
proximidad espacial. Además, resulta evidente que el espacio y el 
tiempo absolutos de Newton deben ser expulsados de la ciencia en 
tanto que ficciones metafísicas. La propuesta original de Mach tenía 
cierta falta de rigor formal; sin embargo, en el curso del siglo XX, al- 
gunos filósofos de la ciencia como Herbert Simón (Estados Unidos, 

- 1916-2001), Hans Hermes (Alemania, 1912-2003) y Günther Lud- 
wig (Alemania, 1918-2007) vuelven al programa de Mach para la 
mecánica intentando desarrollarlo en un marco axiomático-formal. 
No obstante, por razones lógico-metodológicas que se verán más 
adelante, existe hoy en día un consenso entre los filósofos de la cien- 
cia respecto al hecho de que el programa de Mach no es verdadera- 
mente realizable. 

La otra obra de Mach, Die Analyse der Empfindungen, es bastante • 
más ambiciosa y tiene un carácter más explícitamente epistemoló- 
gico: se tratá de reconstruir el conocimiento científico y, especial- 
mente, la física y la psicología, partiendo de una base fenoménica 
única. De este modo, según él, podremos liberarnos de toda “meta- 
física oculta” y restablecer la unidad perdida de la ciencia. Esta base 
única debe componerse exclusivamente de sensaciones inmediatas 



22 El desarrollo moderno de la filosofía de la ciencia (1890-2000) 


(colores, sonidos, impresiones táctiles, etc.); los otros objetos del co- 
nocimiento científico, los cuerpos sólidos, por ejemplo, o los estados 
mentales, deben ser reconstruidos gradualmente como complejos 
de sensaciones. De este modo, la física y la psicología se convierten 
en ramas metodológicamente, aunque no otológicamente, diferen- 
tes del mismo tronco común: la psieofisiología de los sentidos. He 
aquí la única ciencia fundamental, A decir verdad, la obra de Mach 
no se debería haber intitulado “Afíálisis de las sensaciones”, sino más 
bien “Construcción de la materia y de la mente a partir de las sensa- 
ciones”. Su programa de reconstrucción de la unidad de las ciencias 
sobre la base de complejos sensoriales tuvo un impacto extremada- 
mente fuerte sobre sus contemporáneos. A menudo reeditado, Die 
Analyse era un best seller científico. A pesar de su legendaria modestia, 
Mach escribió en 1902 en el prefacio a la cuarta edición de su obra: 

Constato hoy que un gran número de filósofos [ . . . ] y hasta algunos 
naturalistas aislados han ido, sin conocerse entre sí, por caminos con- 
vergentes. Si, por esta razón, el valor de mi trabajo en particular se 
limita a poca cosa, puedo asegurar, en cambio, que no persigo ninguna 
quimera, sino que he colaborado a una empresa más general. 

Efectivamente, la influencia de Mach no fue solamente una moda 
pasajera. Se ejerció también muy fuertemente sobre la generación 
de epistemólogds que le sucedieron. Su programa, como el de sus 
homólogos contemporáneos o posteriores, ha sido llamado de varias 
maneras: “empirismo radical”, “empiriocriticismo”, “monismo neu- 
tral”, “fenomenismo” (no confundir con la fenomenología). No haré 
aquí referencia a los muchos autores (algunos de ellos son bastante 
conocidos aún hoy en día, otros menos, otros están completamen- 
te olvidados) que intentaron, entre 1890 y 1920, contribuir a este 
programa, mejorarlo o revisarlo. Mencionaré solamente tres, bien 
conocidos en contextos diferentes: el filósofo y psicólogo William 
James (Estados Unidos, 1842-1910), el físico y matemático Henri 
Poincaré (Francia, 1854-1912) y el lógico y filósofo Bertrand Russell 
(Reino Unido, 1872-1970). 

James es conocido, sobre todo, como uno de los protagonistas 
del pragmatismo. Sin embargo, en una obra de 1901 que no tiene 
mucho que ver con esta doctrina, The Meaning of Truth [El signi- 
ficado de la verdad], propone un programa de reconstrucción del 
conocimiento empírico que se pretende explícitamente “empirista 
radical”, de hecho, “monista”. Lo más original en el enfoque de 



Fase de germinación o de preformación 


23 


James es que a diferencia de Mach subraya más explícitamente la 
necesidad de tomar como base conceptual de todas las ciencias no 
solamente elementos sensoriales (las “sensaciones” de Mach), sino 
también las relaciones entre las sensaciones como conceptos primiti- 
vos -una idea que sería recuperada y sistematizada más tarde por 
otros autores, principalmente por Carnap— . En efecto, James esta- 
bleció como postulado de su programa que “la experiencia tomada 
como un todo es un proceso que se desarrolla en el tiempo, por el 
cual innumerables términos particulares transcurren y son anulados 
por otros que los siguen en medio de transiciones que, disyuntivas 
o copulativas en cuanto al contenido, son ellas mismas experiencias 
y deben en general ser consideradas al menos tan reales como los 
términos que relacionan”. 1 Según James, cada “cosa” percibida de la 
que podemos hablar científicamente puede considerarse que forma 
parte asimismo de un proceso físico “externo” en relación con el 
sujeto de conocimiento (lo que representa el fundamento de la fí- 
sica) y de un proceso méntal “interno” al sujeto (fundamento de la 
psicología), según las relaciones postuladas que esta “cosa” tiene con 
otras percepciones. Cada “cosa” pertenece, entonces, a dos sistemas 
de asociación relacional que son metodológicamente (pero no onto- 
lógicamente) diferentes: el dominio de la conciencia de un lado, el 
dominio del espacio físico de otro. 

Russell desarrollará de una manera más sistemática esta idea en 
su libro Our Knowledge ofthe External World [Nuestro conocimiento 
del mundo externo], publicado por primera vez en 1914, reeditado 
en 1929 y acompañado de un subtítulo revelador: As a Fieldfor Scien- 
tific Method in Philosophy [Como campo para el método científico en 
filosofía]. En su prefacio, Russell anuncia el principio metodológico 
central que guía sus reflexiones: concebir el mundo físico como una 
construcción (lógica) más que como una inferencia (intuitiva) a partir 
de datos sensoriales. Este método abre una vía técnica que se va a 
convertir en crucial para la comprensión ulterior de la filosofía de la 
ciencia: la aplicación de conceptos y métodos provenientes de la lógi- 
ca matemática (en un sentido amplio, que incluye de hecho la teoría 
de conjuntos y la topología) a cuestiones filosóficas y sobre todo epis- 
temológicas. Esta idea, por supuesto, estaba ya en el aire desde hacía 
algún tiempo. Sin embargo, Russell es el primero en no limitarse a 
hablar de ella y tener el valor de intentar ponerla en práctica. Para lo 
cual utilizó los instrumentos de la lógica y de la teoría de conjuntos 
y, muy especialmente, una técnica formal que acababa de inventar su 

. . .. 1 William James, The Meaning of Truth, p. 65. 



24 El desarrollo moderno de la filosofía de la ciencia ( 1890-2000) 


colega Alfred North Whitehead (Reino Unido, 1861-1947), a saber, 
el “método de la abstracción extensiva”, para reconstruir las partí- 
culas materiales, los puntos espaciales y los instantes temporales en 
tanto que conjuntos de sensaciones estructuradas según determina- 
das relaciones. Cierto, la reconstrucción del espacio a partir de com- 
plejos de sensaciones es aún un esbozo muy primitivo en Russell; 
sólo su discípulo Jean Nicod quien cumpliría verdaderamente esta 
tarea en su libro La Géometrie ddns jte monde sensible (1924) [La geome- 
tría en el mundo sensible]. En cualquier caso, la primera publicación 
de la obra de Russell en 1914 es el nacimiento de una filosofía de la 
ciencia en tanto que “epistemología matemática” (del mismo modo . 
que hablamos de psicología matemática). La nueva lógica matemáti- 
ca (incluyendo las disciplinas emparentadas e igualmente nuevas de 
la teoría de conjuntos y de la topología) se concibe a partir de este 
momento no sólo como una herramienta esencial a las investigacio- 
nes sobre los fundamentos de las matemáticas (como habían mostra- 
do sobre todo Frege, Cantor y el propio Russell); entra también en 
el corazón mismo de la filosofía y, más particularmente, de la epis- 
temología y del programa machiano de unificación de las ciencias. 

Algunos años antes que Russell, encontramos ya esta idea del uso 
de métodos formales para reconstruir los objetos de la física sobre 
una base sensorial en otro científico filósofo, Henri Poincaré, quien, 
por otra parte, señala explícitamente su deuda coni los “empirio- 
criticistas” Mach y Hertz. Sin embargo, las herramiéntas formales 
que Poincaré propone son diferentes de las de Russell: en lugar de 
la lógica y la teoría de conjuntos que Poincaré miraba con recelo, 
aboga por el uso de la topología, al desarrollo de la cual él mismo 
contribuyó de manera sustancial. No obstante, hay que admitir que 
la propuesta de Poincaré se introduce de una manera puramente 
programática, sin aplicación concreta, en su principal obra teórica: 
La Science et la hypothése (1902) [La ciencia y la hipótesis]. Sólo ha- 
cia el final de su vida Poincaré intentará poner su idea en práctica: 
reconstruir el espacio de la física sobre la base de datos sensoriales 
en un breve y difícil ensayo titulado UEspace et ses trois dimensions 
[El espacio y sus tres dimensiones], publicado el año de su muerte 
(1912), y que todavía no es muy conocido. 

2. El convencionalismo y el instrumentalismo 

Aun cuando Poincaré es un brillante ejemplo de la popularidad de 
que gozaba el proyecto de fundar la física sobre una base sensorial, 
la importancia histórica de este autor para la filosofía de la ciencia 



Fase de germinación o de preformación 


25 


entonces naciente descansa mayormente en otro dominio. Poinca- 
ré, que se consideraba a sí mismo un kantiano sui generis , retoma 
la cuestión kantiana de la naturaleza a priori o a posteriori de las 
leyes y de las teorías físicas, y, concluye que los principios más fun- 
damentales de la física no constituyen regularidades obtenidas por 
inducción a partir de la experiencia, sino que tienen un carácter a 
priori . Sin embargo, a diferencia de Kant, afirma que este a priori 
no proviene de una supuesta necesidad trascendental, sino antes 
bien, de su carácter convencional. Las teorías físicas no son sino con- 
venciones complejas que adoptamos para orientarnos de la manera 
más eficaz posible en la experiencia para organizar la masa enorme 
de datos que obtenemos de las observaciones y de los experimen- 
tos de laboratorio. Sin estas convenciones, estaríamos más perdidos 
que un bibliotecario incapaz de ordenar sus libros según el orden 
alfabético de aütores, el orden cronológico de publicación o cual- 
quier otro principio de orden similar. Sin embargo, estas formas de 
organización de los datos 'no reflejan verdad alguna trascendental; 
no pueden pretender ser la imagen de una supuesta “realidad en sí”. 
Poincaré admite que podemos estar frente a teorías divergentes, en 
competencia por el mismo dominio de la experiencia; pero el crite- 
rio para decidir entre estas teorías no es saber cuál es la verdadera 
en sentido estricto (ni siquiera cuál es la “menos falsa”), sino más 
bien saber cuál de las convenciones adoptadas resulta más útil, es 
decir, la más simple para organizar la experiencia. La simplicidad 
del aparato conceptual utilizado representa el único criterio signifi- 
cativo para decidir entre hipótesis o teorías rivales. .. 

El convencionalismo metodológico de Poincaré se expresa de ma- 
nera particularmente clara en su interpretación de la teoría espe- 
cial de la relatividad, cuyas bases él mismo contribuyó a formular. 
Después de la discusión en tomo a la propuesta de “algunos físi- 
cos” (como él mismo dice, sin citar explícitamente a Einstein) de 
reemplazar la geometría euclídea tridimensional por la geometría 
tetradimensional de Minkowski con el fin de hacer compatibles los 
resultados experimentales y el principio de la relatividad de Lorentz, 
concluye que, incluso si esta propuesta es una nueva “convención”’ 
coherente en sí, no hay ninguna razón válida para abandonar la “an- 
tigua convención”, es decir, la geometría euclídea tradicional. Llega 
incluso a vaticinar que la mayoría de los físicos se mantendrán fieles 
a esta tradición, pues es más cómoda; 

V Ironías de la historia, esta “predicción” metodológica de Poincaré 
será refutada definitivamente algunos años después de la publica- 



26 El desarrollo moderno de la filosofía de la ciencia (1890-2000) 


ción de su libro. En efecto, con el auge de la teoría general de la re- 
latividad a partir de 1916, la mayor parte de los físicos se pronuncia 
a favor de un tipo de geometría (riemanniana) aún más diversa de la 
euclídea de lo que Poincaré habría podido imaginar que se pudiera 
aplicar a la física. Confrontados a una alternativa —mantener la anti- 
gua y cómoda geometría euclídea al precio de tener que formular las 
leyes sustanciales de la física de un modo extremadamente compli- 
cado o elegir una geometría menós intuitiva pero que permita una 
mejor formulación de las leyes físicas—, los físicos terminaron por 
escoger la segunda opción. Esto no implica que Poincaré haya to- 
mado una posición completamente errónea mostrando el elemento . 
convencional (a priori pero no trascendental) inherente a toda elec- 
ción de una teoría empírica. Lo que este ejemplo histórico muestra 
verdaderamente es que la relación entre la teoría y la experiencia (un 
tema central en la filosofía de la ciencia del siglo XX) es más com- 
pleja de lo que Poincaré había entrevisto. La parte de verdad de su 
“convencionalismo” se apoya en un hecho lógico-metodológico que 
Quine habría de popularizar más tarde según la fórmula de “sub- 
determinación de la teoría por la experiencia” (véase más adelante, 
capítulo. 4, pp. 74-75). Su parte errónea proviene de que el princi- 
pio de subdeterminación de la teoría por la experiencia no equivale 
a una completa libertad en la elección de teorías, en función del 
“gusto del consumidor”. Además del criterio local de la adecuación 
de la teoría con el dominio de la experiencia que le corresponde, 
es necesario tomar en cuenta criterios de una naturaleza más glo- 
bal, con una función importante en la elección: entre varias teorías 
rivales, elegiremos aquella que es globalmente la más coherente en 
relación con las teorías ya establecidas. Esto proviene del hecho de 
que las disciplinas científicas (o al menos las ciencias físicas) funcio- 
nan de una manera bolista : es siempre una gran familia de teorías 
o, quizá incluso, la física entera lo que, en última instancia, está en 
cuestión cuando contrastamos una determinada teoría con la obser- 
vación empírica o con un experimento de laboratorio. He aquí la 
lección que es necesario recordar del ejemplo histórico de la teoría 
de la relatividad y de la adopción de la geometría riemanniana. 

La naturaleza holista de la ciencia constituye una tesis central de 
la filosofía posterior de Quine. Pero esta tesis tiene un precursor, el 
también físico-filósofo Pierre Duhem (Francia, 1861-1916). Por esto 
la concepción holista en filosofía de la ciencia es llamada habitual- 
mente “tesis de Duhem-Quine” —una denominación, por otra parte, 
un poco injusta por dos motivos: primeramente, porque el holismo 



Fase de germinación o de preformación 


27 


de Duhem no es tan radical como el de Quine; en segundo lugar, 
porque además de Duhem y Quine, hay otro gran defensor del ho- 
lismo: Otto Neurath, de quien hablaremos en el próximo capítulo—. 

Duhem no tuvo en esa época una gran influencia como filósofo 
de la ciencia. Más conocido como físico, químico por sus contribu- 
ciones a la termodinámica, gran historiador de las ciencias, se le 
debe, entre otras cosas, la revalorización de la teoría medieval del 
ímpetus como anunciadora de la dinámica de Galileo. Sin embargo, 
Duhem no estudiaba la historia de la ciencia como “mero” historia- 
dor. Como Mach (cuya Mechanik había estudiado), tenía por obje- 
tivo extraer de la historia de la ciencia ideas pertinentes para una 
metodología general de la física. Si la gran obra historiográfica de 
Duhem es Le Systéme du Monde [El sistema del mundo] (cuya pu- 
blicación, comenzada en 1913, se concluye bastante después de su 
muerte en 1959), para la filosofía de la ciencia su obra más impor- 
tante es La théorie physique, son objet, sa structure (1906) [La teoría 
física, su objeto, su estructura]. Aquí es donde Duhem presenta su 
metodología holista, limitada a la física, porque, curiosamente, con- 
sidera que la fisiología no funciona de manera holista: según él en 
las investigaciones fisiológicas es posible aislar una hipótesis particu- 
lar y ponerla a prueba en un experimento de laboratorio, sin que se 
esté obligado a tener en cuenta la disciplina entera. En cambio, en el 
caso de la física, este método “puntual” de confrontación empírica 
no daría ningún buen resultado. Al examinar en detalle numerosos 
ejemplos de la historia de la física, Duhem muestra que, en contra de 
las apariencias, nunca es una hipótesis particular lo que uno pone a 
prueba, sino toda una red de leyes y teorías. Y si el experimento de 
laboratorio o la observación dieran un resultado negativo, siempre 
sería posible buscar otro “culpable” en el cuerpo de la disciplina y 
salvar así la hipótesis que uno había confrontado con la experiencia. 
De manera sutil, pero perfectamente real, todas las leyes y teorías 
de la física tienen relaciones esenciales entre ellas. Una experiencia 
negativa nos señala solamente que hay algo que no funciona en el 
cuerpo de la disciplina, pero no es posible determinar unívocamente 
qué es. He aquí una manera diferente, pero parecida a la de rom- 
earé, de argumentar a favor de la tesis de la subdeterminación de la 
teoría por lá experiencia. 

. A pesar de la pertinencia del análisis de Duhem, sus contemporá- 
neos no comprendieron su profunda importancia epistemológica, y 
la filosofía de la ciencia inmediatamente posterior siguió otros cami- 
nos. Fueron primeramente Neurath, a principios de los años treinta, 



28 El desarrollo moderno de la filosofía de la ciencia ( 1890-2000) 


y posteriormente Quine, en los cincuenta, quienes darían a conocer 
este análisis a la comunidad de filósofos de la ciencia. Sin embargo, 
ellos dieron al holismo una interpretación más radical, más exhaus- 
tiva, la cual Duhem probablemente nunca habría aceptado. 

Otra contribución de Duhem a la filosofía de la ciencia tiene to- 
davía una gran influencia, se trata de la interpretación instrumenta- 
lista de las teorías científicas. Segúnesta interpretación, las teorías 
científicas no son verdaderas ni falsas: son sólo instrumentos para 
representar de la manera más eficaz posible los fenómenos que ob- 
servamos, predecirlos lo mejor posible. Brevemente —para retomar 
una expresión de la ciencia antigua, utilizada por el propio Duhem— 
el objetivo de las teorías científicas es simplemente “salvar los fenó- 
menos”. Una primera forma de esta visión del papel de las teorías se 
encuentra en Mach y en su discípulo Hertz. No obstante, fue Duhem 
quien presentó los argumentos más explícitos, que seí retomaron y 
discutieron mucho más tarde, a partir de los años setenta. 

3. Dos semillas para el futuro 

Antes de concluir este capítulo, citemos a un autor y una disciplina 
más. Ni uno ni otra tuvieron una verdadera influencia en el desa- 
rrollo de la filosofía de la ciencia en esta fase, pero más adelante tu- 
vieron una gran importancia. Se trata de Charles S. Peirce (Estados 
Unidos, 1839-1914) y de la nueva lógica. Se suele asociar a Peirce 
con el pragmatismo como movimiento filosófico general, incluso si 
no quiso ver asimiladas sus teorías a las versiones más populares y 
más ideológicas que ofrecieron James u otros contemporáneos. Para 
marcar la diferencia, Peirce, que no carecía de cierto sentido de au- 
toironía, tuvo que dar a su propia posición la etiqueta poco atractiva 
de “pragmaticismo”. ... j 

Retrospectivamente, el pensamiento de Peirce es significativo no 
sólo para la filosofía de la ciencia, sino también para la lógica y la 
filosofía del lenguaje. Desgraciadamente, su estilo difícil y un tanto 
caótico, su terminología oscura y ciertos rasgos de su personalidad 
constituyeron un verdadero obstáculo para la difusión de su obra 
en la comunidad epistemológica de la época. Los grandes ejes de la 
epistemología de Peirce eran los siguientes: (1) la tesis según la cual 
el sentido de una hipótesis científica depende simplemente de las si- 
tuaciones empíricas a las cuales queremos someterla, de suerte que 
si somos incapaces de indicar efectivamente las situaciones concre- 
tas dadas las cuales la hipótesis sería verdadera o falsa, la hipótesis 



Fase de germinación o de preformación 


29 


en. cuestión no tiene sentido; (2) el principio metodológico con ba- 
se en el cual el método más auténtico de las ciencias empíricas no 
es la inducción (como se pensaba entonces) ni la deducción (como 
se pensaría posteriormente), sino más bien una tercera forma de 
inferencia, que Peirce llama “abducción”: confrontados con hechos 
particulares que queremos explicar o predecir, debemos buscar la 
hipótesis general más simple de la cual puedan ser deducidos los 
hechos en cuestión —en la literatura epistemológica ulterior se ha- 
blará de la “inferencia a la mejor explicación posible”—; (3) la visión 
de la ciencia en su totalidad como empresa colectiva.en evolución 
constante, convergente hacia una teoría global final (que no se puede 
suponer que sea alcanzada algún día, pero cuya existencia es su- 
puesta como principio regulador ), no pudiéndose definir la verdad 
científica más que en relación a esta teoría final. 

La otra “semilla” para el futuro que quiero mencionar, la nueva 
lógica matemática en sentido amplio, fue creada al mismo tiempo 
que la moderna filosofía de la ciencia, es decir, durante el último 
cuarto del siglo XIX y principios del XX. Sin embargo, curiosamente, 
la intersección entre las dos disciplinas es casi nula durante esta pri- 
mera fase. Sin duda se reconoció debidamente el impacto revolucio- 
nario de los trabajos de Gottlob Frege (Alemania, 1848-1925) sobre 
la lógica formal y los fundamentos de la aritmética, de David Hil- 
bert (Alemania, 1862-1943) sobre los fundamentos de la geometría 
y sobre la axiomática general, de Georg Cantor (Rusia/ Alemania, 
1845-1918) y de Emst Zermelo (Alemania, 1871-1953) sóbrela teo- 
ría de conjuntos, o aun de Bertrand Russell y de Alfred N. Whiter 
head sobre el programa logicista, por mencionar sólo algunos au- 
tores famosos; pero los resultados de estos trabajos apenas tuvieron 
influencia en la filosofía de la ciencia de la época. El primer encuen- 
tro, aún tímido, entre las dos disciplinas se produjo en la ya citada 
obra de Russell, OurKnowledge ofthe External World , que correspon- 
de al periodo de transición entre la primera y la segunda fase de 
la historia de la filosofía de la ciencia. La importancia de la lógica 
y, más comúnmente, de los métodos formales del análisis para los 
fundamentos de las ciencias empíricas será reconocida a partir de 
los años veinte. Este giro resultará decisivo para la constitución de la 
nueva filosofía de la ciencia no tanto desde el punto de vista de los 
contenidos como desde el punto de vista del método de investiga- 
ción adoptado. Y así entramos ya en lá fase siguiente. 




3 


FASE DE ECLOSIÓN 
(1918-1935) 


1. Una excepción francesa 

Como toda clasificación historiográfica de este género, la partición 
en cinco fases que he propuesto para delinear la evolución de la fi- 
losofía de la ciencia en el siglo XX, no debe tomarse al pie de la 
letra: admite todas las excepciones y matices posibles, aunque sin 
importancia en una. primera aproximación. Sin embargo, y antes de 
analizar la segunda fase del desarrollo de nuestra disciplina, que 
he llamado fase de eclosión, debemos mencionar una excepción 
demasiado importante para ser ignorada: la evolución de la epis- 
temología en lengua francesa. En efecto, la periodización en cinco 
fases que hemos establecido corresponde al desarrollo de nuestra 
disciplina en los países de Europa central, los países anglosajones y 
nórdicos y, en cierta medida, en otros países de Europa y América. 
Pero la epistemología francesa que, en la primera fase, pertenece 
aún a la misma “comunidad de intereses”, toma, a partir de los años 
treinta, un camino que le es propio y permanecerá independiente 
casi hasta nuestros días. No nos atrevemos a aventurarnos en una 
especulación sobre los orígenes de este ejemplo prominente de “ex- 
cepción cultural francesa”; a lo sumo constatamos que a diferencia 
de los otros países mencionados, la incidencia de la nueva lógica y de 
los métodos formales de análisis sobre la reflexión metacientífica fue 
prácticamente nula en Francia y que, en cambio, una perspectiva de- 
cididamente histórica, incluso historicista, se impuso. Es cierto que 
durante el periodo de entreguerras, brillantes pensadores franceses 
participaron en la corriente general de la filosofía de la ciencia de 
■ la época. Los dos ejemplos más representativos son probablemente 
Jean Nicod y Jean Cavaillés, que conocían muy bien los desarrollos 



32 El desarrollo moderno de la filosofía de la ciencia ( 1890-2000) 

contemporáneos de la lógica y su aplicación a problemas epistemoló- 
gicos. Fallecidos prematuramente, no hicieron propiamente escuela 
y su influencia resultó mucho menos importante que la de Gastón 
Bachelard o Georges Canguilhem, por citar sólo dos figuras signi- 
ficativas de la epistemología francesa a partir de los años treinta. 
En cualquier caso, si aceptamos la “definición institucional” de la ~ 
filosofía de la ciencia propuesta en el prólogo, podemos constatar 
que, a partir de los años treinta, la reflexión filosófica en lengua 
francesa sobre la ciencia se encuentra prácticamente desligada del 
mainstream de nuestra disciplina. Por este motivo, trataré aquí muy 
brevemente —en una especie de paréntesis histórico que no puede 
ser integrado en mi esquema de fases— los rasgos, a mi juicio, más 
característicos de la epistemología francesa desde 1930 hasta fines 
del siglo XX. 

El rasgo más característico de las obras de los filósofos de la cien- 
cia franceses a partir de esta época reside en el hecho de que en 
lugar del análisis lógico-metodológico de las teorías científicas, la 
perspectiva histórica tiene una función primordial (una tendencia 
que se inició con Duhem), no solamente en el sentido de una visión 
histórica global de la ciencia, sino también, y sobre todo, en el sen- 
tido de una mayor importancia de los estudios de casos particulares 
de ideas científicas. A veces resulta casi imposible saber, en este tipo 
de obras, si nos hallamos frente a un análisis filosófico o a un análi- 
sis puramente historiográfico. Hay que añadir, además, el hecho de 
que los criterios de evaluación de la pertinencia de estos análisis di- 
fieren, en Francia, de los aplicados paralelamente por la filosofía de 
la ciencia en otros países: en el caso de Francia, se toman en cuenta 
principalmente las cualidades literarias de un ensayo acerca de un 
aspecto particular de la ciencia —en el que cierta intuición se trans- 
mite al lector de manera más o menos brillante—, y¡no el rigor con- 
ceptual y metodológico del análisis. Asimismo, se constata un uso 
muy extendido (a veces incluso abusivo) del lenguaje metafórico. 

El ejemplo más paradigmático de esta manera de entender la 
tarea del filósofo de la ciencia lo constituye Gastón Bachelard (Fran- 
cia, 1884-1962). Este autor, de perfil biográfico original (químico, 
filósofo, poeta y aun un muy respetable empleado de correos), se 
hizo muy popular, sobre todo desde la aparición de La psychanalyse 
du feu (1938) [El psicoanálisis del fuego]. En esta obra, cuyo con- 
tenido la hace difícil de clasificar, se confronta al lector con una 
combinación de conocimientos históricos profundos sobre la época 
premoderna de la ciencia, intuiciones poéticas y especulaciones fi- 



Fase de eclosión ( 1918-1935 ) 


33 


losóficas generales —el conjunto, presentado en un estilo brillante, 
pero de rigor argumentativo discutible—. Sus obras más próximas a 
la tradición de la filosofía de la ciencia, tal y como había emergido 
a finales del siglo XIX, son, sin duda, Le Nouvel Esprit scientifique 
(1932) [El nuevo espíritu científico], centrada en la importancia fi- 
losófica del nuevo indeterminismo en la microfísica, y sobre todo 
La Formation de VEsprit scientifique (1938) [La formación del espíritu 
científico]. La tesis epistemológica más importante de Bachelard es 
quizá su reinterpretación del espíritu de la ciencia moderna, y más 
particularmente de su aspecto experimental : para él, el giran valor 
del nuevo método experimental reside en su ruptura radical con el 
sentido común. Apoyándose en un gran número de ejemplos históri- 
cos, Bachelard intenta mostrar que las intuiciones y generalizaciones 
del sentido común, o aun las especulaciones seudocientíficas fáciles, 
siempre han representado un obstáculo para el desarrollo del verda- 
dero espíritu científico, el. cual, en cierta medida, no puede ser sino 
“insensato”. 

La tendencia de la epistemología francesa hacia una perspectiva 
puramente histórica se acentúa aún en algunos de los autores que su- 
cedieron inmediatamente a Bachelard. Los dos ejemplos más signi- 
ficativos son probablemente Alexandre Koyré (Rusia/Francia, 1892- 
1964) y Georges Canguilhem (Francia, 1904-1995). En sus estudios 
de la obra de Galileo y Newton, Koyré defiende una interpretación 
“platonizante” de los orígenes de la ciencia moderna: el rasgo esen- 
cial de ésta no reside en la experimentación (como se había supuesto 
hasta entonces), sino más bien en el espíritu matemático “platónico” 
—una tesis que habría de ser discutida enérgicamente por los histo- 
riadores de la ciencia y que continúa suscitando controversias—. 

Canguilhem, por su parte, siguiendo un camino que nos recuer- 
da el de Bachelard, se interesa por los aspectos ideológicos de las 
ciencias de la vida (biología, medicina) en el curso de la historia y 
en sus interacciones con las ideas filosóficas generales que les son 
contemporáneas. Su obra más importante es, sin duda, Le Normal 
et le pathologique [Lo normal y lo patológico] (1943, reeditada en 
1962), situada en la encrucijada entre medicina teórica, historia y 
filosofía de la medicina. Canguilhem defiende ahí una especie de 
holismo o'rganicista y se declara abiertamente antireduccionista con 
respecto a las ciencias de la vida —una posición que mantendrá en 
sus reflexiones ulteriores—. 

Canguilhem es probablemente el epistemólogo más influyente en 
la reflexión francesa sobre la ciencia de la segunda mitad del si- 



34 El desarrollo moderno de la filosofía de la ciencia (1890-2000) 


glo XX. Michel Foucault (Francia, 1926-1984), sin duda su discípulo 
más conocido, al menos en la primera fase de su obra ( Naissance 
de la clinique (1963) [El nacimiento de la clínica]), continúa, tanto 
en la temática como en la metodología, el proyecto de un análisis 
filosófico-crítico de la medicina desde una perspectiva esencialmen- 
te diacrónica. Incluso en las generaciones más recientes de epis- 
temólogos franceses, la influencia de Canguilhem parece ineludi- 
ble. Podemos citar, entre otros, aánne Fagot-Largeault y a Claude 
Debru, que han tomado también las ciencias de la vida, en su di- 
mensión histórica, como objeto principal de sus análisis críticos. 

Este resumen, altamente sintético, de la evolución de la filosofía 
de la ciencia francesa tras la Segunda Guerra Mundial no debe lle- 
varnos a pensar que constituye un “bloque homogéneo historicista”. 
No sólo porque existen diferencias de concepción bastante impor- 
tantes entre los autores citados, sino también porque, en el periodo 
considerado, ciertos filósofos franceses, sin abandonar la perspec- 
tiva histórica, llevaron a cabo estudios lógico-metodológicos de la 
ciencia en un espíritu más “sincrónico” e intentaron establecer un 
puente entre los temas abordados por la epistemología francesa y la 
filosofía de la ciencia surgida del positivismo lógico (véase este capí- 
tulo, pp. 74 y ss.). Los dos ejemplos más significativos son, sin duda, 
Jules VuiUemin (Francia, 1920-2001), que contribuyó enormemente 
a la recepción del pensamiento de Rudolf Camap en Francia a partir 
de los años sesenta y, sobre todo, Gílles-Gaston Granger (Francia, na- 
cido en 1920), .autor de un gran número de obras epistemológicas, 
de las cuales la más importante es probablemente Pensée formelle et 
Science de Vhomme (1960) [Pensamiento formal y ciencia del hombre]. 
Gran conocedor de disciplinas tan diversas como las matemáticas, la 
física, la economía, la psicología y la lingüística, Granger propugna 
una “epistemología comparativa”, es decir, plural (mas no fragmen- 
tada), cuyo centro sigue estando anclado, a pesar de todo, en las 
formas matemáticas. 

. Dicho esto y reconociendo su justo valor a estas “excepciones 
dentro de la excepción epistemológica francesa” para las sucesivas 
generaciones de epistemólogos franceses después de 1930, la con- 
centración del interés en torno a cuestiones principalmente históri- 
cas está tan presente que se puede calificar la filosofía de la ciencia 
francesa en general, casi hasta fines del siglo XX, de historia(s) de la 
ciencia puesta(s) en relación con ideas filosóficas, y no de filosofía de la 
ciencia en el sentido en que la entendemos aquí. Si bien la filosofía 
de la ciencia no francófona, sobre todo la anglosajona, pasó tam- 



Fase de eclosión ( 1918-1935 ) 


35 


bien —como veremos en el capítulo 5— por una etapa “historicista”, 
resulta notable que no haya habido casi ninguna influencia mutua 
entre los dos historicismos, exceptuando la fuente de inspiración 
que los trabajos de Koyré supusieron para algunos aspectos del pen- 
samiento de Thomas Kuhn, el representante más emblemático del 
historicismo anglosajón* Esta falta general de interacción entre dos 
tendencias que tienen en común situar la perspectiva diacrónica en 
el centro de la reflexión filosófica sobre la ciencia se debe quizá a 
que la fase “historicista” de la filosofía de la ciencia que examina- 
remos más adelante puede ser calificada, en razón de su objetivo y 
su método, de “filosofía historicista de las ciencias”, lo que es muy 
distinto a una “historia filosófica de las ciencias”, denominación que 
sería más apropiada para la epistemología francesa contemporánea. 

2. El papel de la lógica formal 

La reflexión filosófica sobre la ciencia en los países de Europa y 
América, donde la nueva filosofía de la ciencia comienza a implan- 
tarse de una manera más o menos institucional después de la Pri- 
mera Guerra Mundial, toma un camino radicalmente diferente de 
la vía francesa: se interesa mucho menos en la perspectiva histórica 
y se preocupa mucho más por fundar rigurosamente el conocimien- 
to científico y —para tomar prestada una terminología que, aunque 
anacrónica, está extendida hoy en día— producir una modelización 
formal de las teorías y de los métodos científicos. El elemento clave 
para comprender las características de esta nueva fase es, sin duda, 
el impacto que la nueva lógica formal o la lógica matemática tuvo 
sobre los filósofos de la ciencia contemporáneos; de una manera 
más general, uno puede inscribir esta fase en la tradición de lo que 
es corriente llamar el “giro lingüístico” ( linguistic turn) que la filoso- 
fía había emprendido a comienzos del siglo en el Reino Unido con el 
método filosófico de G.E. Moore y de Bertrand Russell, este último 
inspirado por la obra de Gottlob Frege. La expresión más radical 
de este giro lingüístico se halla en el Tractatus logico-philosophicus 
(1922) de Ludwig Wittgenstein (Austria, 1889-1951), en el que se 
puede leer “toda filosofía es crítica del lenguaje” (§ 4.0031). Sí esta 
declaración es válida para la filosofía en general, esto implica para la 
filosofía de la ciencia en particular que se va a convertir en un análi- 
sis crítico del lenguaje de la ciencia. Justamente la herramienta que 
permite realizar este análisis de la manera más eficaz y controlada 
posible es la nueva lógica (incluyendo algunas disciplinas fundamen- 
tales de las matemáticas, tales como la teoría de conjuntos y la teoría 



S6 El desarrollo moderno de la filosofía de la ciencia ( 1890-2000 ) 


de la prueba, que en esa época no se distinguían mucho de la lógi- 
ca). De ahí se comprende que el esfuerzo emprendido para aplicar 
de una manera sistemática los nuevos métodos formales a la recons- 
trucción del lenguaje científico, para hacer de él un lenguaje “ideal” 
depurado de toda confusión y perfectamente controlado, ocupe un 
lugar eminente en esta fase de la historia de nuestra disciplina. 

Además, el presupuesto metodológico implicaba que la aplicación 
de los métodos formales debía permitir esclarecer no solamente los 
fundamentos conceptuales y metodológicos del conocimiento cien- 
tífico, sino al mismo tiempo alcanzar de una vez por todas el ob- 
jetivo que Mach y sus contemporáneos se habían fijado: “purificar” 
las ciencias de todo tipo de metafísica. Por consiguiente, la forma- 
lización del lenguaje científico debía hacer posible lá detección de 
porciones de lenguaje ordinario que todavía estaban impregnadas 
de términos y enunciados que el análisis formal revela como vacíos 
de sentido, justamente debido a su naturaleza metafísica. 

3. El Círculo de Viena 

Con la distancia que nos permite la perspectiva actual, esta nueva 
manera de comprender la tarea y el método de la filosofía de la 
ciencia al mismo tiempo (y, de hecho, de la filosofía tout court), pue- 
de describirse como una verdadera revolución, como un “cambio 
de paradigma”, haciendo uso de la expresión que Thomas Kuhn 
haría popular algunos decenios más tarde. El epicentro de esta re- 
volución se encuentra en la Viena de los años veinte, con “centros 
secundarios” importantes situados en Berlín, Varsovia, Lvov, Cam- 
bridge, Oxford y aun en los países nórdicos y en Estados Unidos. 
Se trata de ün movimiento intelectual muy vasto, habitualmente co- 
nocido como positivismo lógico . No todos los protagonistas de este 
movimiento aceptaron esta denominación; algunos prefirieron la 
expresión “empirismo lógico” o aun, cuando se trataba únicamente 
de la metodología de las ciencias empíricas, el término de “opera- 
cionalismo”. Por motivos de conveniencia, nos ceñiremos aluso del 
término más conocido de “positivismo lógico”, pues señala los dos 
elementos esenciales de la nueva concepción de la filosofía de la 
ciencia: primeramente, se trata en efecto de un positivismo , en el 
sentido de un rechazo radical de toda forma de metafísica más o 
menos “oculta” y de un énfasis puesto en las ciencias como única 
fuente legítima de conocimiento; pero también se trata, a diferencia 
del “viejo” positivismo, de un positivismo lógico en la medida en que 
el contenido de todo conocimiento auténtico debe ser, en principio, 



Fase de eclosión (1918-1935) 


37 


“codificado” sistemáticamente en un lenguaje “ideal”, determinado 
por las reglas de la lógica formal, el cual había de permitir el máximo 
de precisión y de control sobre los enunciados científicos. 

No es por casualidad que Viena sea el lugar donde este movimien- 
to revolucionario se exprese con más fuerza. Recordemos que pre- 
cisamente en la Universidad de Viena se creó la primera cátedra de 
filosofía de la ciencia, una cátedra inicialmente ocupada por el “po- 
sitivista” Emst Mach y, algunos años más tarde, por Moritz Schlick 
(Alemania, 1882-1936). Este pensador ocupa un lugar de primer 
orden en la consolidación del positivismo lógico y . de la filosofía 
de la ciencia en general. En 1918, Schlick publica su primera gran 
obra, Allgemeine Erkenntnislehre [Teoría general del conocimiento], 
que, por su forma y contenido, se encuentra a caballo entre la fase de 
germinación y la fase de eclosión de la filosofía de la ciencia. Schlick 
no aplica todavía de una manera sistemática los métodos de la nueva 
lógica, pero la orientación general de su pensamiento prefigura lo 
que vendrá a ser el positivismo lógico. Su principal preocupación 
es la fundación filosóficamente sólida del conocimiento científico, 
sobre todo de la física, que parecía estar en una crisis conceptual con 
la aparición de la teoría de la relatividad —una teoría que él conocía 
bien siendo físico—. Para él, en toda teoría física, hay que distinguir 
claramente entre lo que corresponde a su aparato formal-analítico lo 
que corresponde a su contenido sintético, que siempre es empírico. 
Preconizando una tesis epistemológica que se convertirá luego en 
uno de los pilares del positivismo lógico, Schlick contradice a Kant 
postulando que “analítico” equivale a “ apriori ”, mientras que “sinté- 
tico” equivale a “a posterior i”; no hay lugar en el conocimiento cien- 
tífico para elementos supuestamente sintéticos a priori. Para Schlick, 
como para los otros miembros del Círculo de Viena y las corrientes 
próximas, los enunciados “analíticos” coinciden con los de la lógi- 
ca y las matemáticas (o incluso sólo de la lógica, si presuponemos, 
como era frecuente en la época, que las matemáticas son reducibles 
a la lógica), mientras que los enunciados “sintéticos” son todos, sin 
excepción, empíricos. Existe una separación absoluta entre los com- 
ponentes analíticos a priori y los componentes sintético-empíricos en 
las teorías científicas. Este postulado fundamental del positivismo 
lógico será puesto en tela de juicio por Quine en los años cincuenta 
(véase el capítulo 4), pero hoy en día sigue desempeñando un papel 
importante, explícito o implícito, en muchas discusiones. 

• f : r ; La importancia de Schlick reside también en su papel de gran or- 
ganizador de un marco de discusión apropiado para la nueva disci- 



38 El desarrollo moderno de la filosofía de la ciencia (1890-2000) 


plina. Como ya se ha indicado en el primer capítulo, en 1928 se creó 
la Asociación Emst Mach con Schlick como presidente, reuniendo 
a filósofos que tenían una formación científica y a científicos que te- 
nían intereses filosóficos, quienes regularmente se encontraban para 
discutir todo tipo de cuestiones filosóficas con un espíritu cientí- 
fico. De una manera menos oficial, la mayor parte de los miem- 
bros de esta asociación constituyeran, a partir de 1929, el Círculo 
de Viena —centro internacionalmente reconocido del positivismo 
lógico—. Este Círculo no tenía como objetivo únicamente una re- 
novación de la filosofía de la ciencia mediante la aplicación de la 
lógica formal; sus ambiciones iban mucho más lejos: se trataba de 
constituir una Weltauffassung, una concepción del mundo comple- 
tamente nueva, liberada de todas las confusiones y todos los dog- 
matismos de un pasado metafísico —la “concepción científica del 
mundo”, tal y como aparecía en el título del Manifiesto del Círculo 
que tres de sus miembros, Neurath, Carnap y Hahn, publicaron en 
1929 en homenaje a Schlick—. En 1930, los miembros del Círculo, 
en colaboración con un grupo de la misma orientación constituido 
en Berlín en torno a Hans Reichenbach, publican su propia revista, 
Erkenntnis, que se publica todavía en la actualidad (después de una 
larga interrupción debida a la Segunda Guerra Mundial y la posgue- 
rra). No es posible detallar aquí todas las posiciones tomadas por el 
Círculo de Viena, que van más allá de la filosofía de la ciencia y cu- 
bren no solamente temas más o menos tradicionales de la filosofía, 
sino que también incidieron sobre las nuevas corrientes artísticas (el 
movimiento del Bauhaus, por ejemplo), sobre proyectos de reforma 
pedagógica en los países germánicos o aun sobre el programa social- 
demócrata. 

Desde el punto de vista de la filosofía de la ciencia, Rudolf Carnap 
(Alemania, 1891-1970) es, sin duda, el miembro del Círculo de 
Viena más notable por la influencia que ejerció a la vez en .sus con- 
temporáneos y sobre las generaciones siguientes. Gracias a los es- 
fuerzos de Schlick, Carnap obtuvo una cátedra en Viena en 1926 y, 
en 1928, publicó la obra más representativa de este periodo, Der logi~ 
sche Aufbau der Welt [La construcción lógica del mundo]. Su conteni- 
do es tan complejo y variado que resulta difícil de clasificar desde el 
punto de vista de la teoría de las ideas. No es un tratado de filosofía 
de la ciencia en el sentido actual. Ciertamente, contiene numerosos 
elementos que contribuyeron de una manera decisiva a la discusión 
ulterior de nuestra disciplina, más desde el punto de vista del mé- 
todo que del contenido, pero se trata sobre todo del primer ensayo 



Fase de eclosión ( 1918-1935 ) 


39 


sistemático de modelización matemática del conocimiento humano 
(el conocimiento científico incluido). Su título es un poco desconcer- 
tante. Más que “La construcción lógica, del mundo”, se tendría que 
haber titulado “La construcción lógica de los conceptos del conoci- 
miento empírico”. Carnap pretende alcanzar el mismo objetivo que 
muchos filósofos de la ciencia antes que él (especialmente Mach y sus 
sucesores — cfr. capítulo 2, pp. 19-20—): llegar a la unificación con- 
ceptual de los conocimientos empíricos a partir de datos sensoriales, 
purificándolos de toda metafísica. Sin embargo, el método emplea- 
do por Carnap para alcanzar este objetivo es revolucionario: se trata 
de la aplicación de la lógica formal, de la teoría de conjuntos y de 
la topología a la construcción de conceptos de niveles sucesivos, un 
poco a la manera de la teoría de los tipos que Russell había aplicado 
a los fundamentos de la matemática. El único precedente metodo- 
lógico, si bien menos desarrollado, que podía orientar a Carnap en 
este contexto es el proyecto de construcciones formales sugerido por 
el mismo Russell en Our Knowledge of the External World . De hecho, 
con la honestidad intelectual que siempre caracterizó su desarrollo 
filosófico, Carnap hablaría más tarde en su Autobiografía intelectual 
de la profunda impresión que la lectura de Russell le dejó entonces, 
cuando estaba en sus inicios filosóficos. Carnap realizó efectivamen- 
te, con una tenacidad admirable, una gran parte del programa que 
Russell no había sino esbozado. 

El “mundo conceptual” de Der logische Aúpan der Welt, de Carnap, 
se compone de un inmenso edificio construido sobre cuatro pisos 
perfectamente diferenciados: los fundamentos se constituyen por lo 
que Carnap llama “la base del psiquismo propio” ( die eigenpsychische 
Basis), es decir, los conceptos que se refieren a experiencias senso- 
riales de un sujeto de percepción; el segundo piso está reservado 
a los conceptos de la física; el tercero corresponde a los conceptos 
psicológicos en general (intersubjetivos); el último culmina con los 
conceptos de las ciencias de la cultura. Cada uno de estos pisos se di- 
vide, a su vez, en varios niveles. Se pasa de cada uno de estos niveles 
al siguiente utilizando únicamente métodos formales de construc- 
ción (esencialmente, la definición de un conjunto cualquiera par- 
tiendo de sus elementos y de relaciones entre ellos —al igual que 
en las matemáticas se construyen los números racionales a partir de 
los enteros, los números reales a partir de los racionales, etc.—). Los 
elementos de base del edificio camapiano pueden ser identificados 
(desde el punto de vista intuitivo, presistemático) recurriendo a lo 
que Carnap llama las “vivencias globales” de un sujeto de percep- 



40 El desarrollo moderno de la filosofía de la ciencia (1890-2000) 

ción en un instante dado. (Hay que señalar que el sujeto mismo, 
en tanto que entidad identificable, no está todavía presupuesto en 
este nivel: será construido mucho más tarde en un ¡nivel superior 
del edificio —de ahí el principio de “solipsismo sin sujeto” con el 
cual Carnap caracteriza su procedimiento)—. Partiendo de estas ex- 
periencias de base y de una sola relación entre ellas (el “recuerdo 
de semejanza”), Carnap construye paso a paso, por un particular 
método recursivo al que llama “cüasianálisis”, el resto de concep- 
tos esenciales del mundo fenoménico: las cualidades, los colores, 
los lugares visuales, los sentidos, etc. Enseguida viene un “salto” al 
piso siguiente, el mundo físico, donde Carnap ya no logra aplicar 
métodos tan rigurosos como el “cuasianálisis”, sino sólo métodos 
semiformales de correlación (hoy en día se hablaría de la construc- 
ción de un homomorfismo ). De manera aún menos formal, pero de 
todos modos sistemática, se pasa del mundo físico al de la psicología 
intersubjetiva y finalmente al dominio de las nociones culturales. El 
procedimiento de Carnap se caracteriza por una precisión muy su- 
perior a todo lo que había sido emprendido hasta entonces en este 
ámbito. j 

Por el enfoque epistemológico que adopta, la construcción carna- 
piana es fenomenista 1 y, por su toma de posición metodológica, es 
reduccionista. El primer calificativo significa que para Carnap (como 
para Mach, James, Russell, Poincaré y tantos otros) el fundamento 
último de todos los conceptos científicos, hasta los más abstractos 
de la física teórica, se compone de experiencias sensoriales (prin- 
cipalmente visuales) de un “observador”. No obstante, a diferencia 
de sus predecesores, Carnap no toma los datos sensoriales aislados 
y puntuales como base, sino más bien una “corriente global de vi- 
vencias”. Por otra parte, quiere demostrar que todos ¡los conceptos 
científicos pueden ser definidos formalmente (a través de cadenas 
de definición largas y complejas, que siempre tienen la forma de 
equivalencias lógicas) a partir de una base única de conceptos primi- 
tivos —de ahí su “reduccionismo”— . Con la publicación de su libro, 
Carnap es víctima .de críticas suscitadas por los dos componentes 
de su sistema —críticas que, en muchos casos, se revelaron como 
pertinentes—. Sin embargo, las construcciones carnapianas han pro- 
bado de una vez por todas (aparte de la cuestión del objetivo perse- 
guido) que se podía llegar a resultados muy interesantes aplicando 

1 Traduzco “fenomenista” y “fenomerúsmo” en lugar de, como algunas veces se 
hace, por influencia del inglés, “fenomenalista” y “fenomenalismo”, por conside- 
rar que es lo más correcto. [N. del t.] 



Fase de eclosión (1918-1935) 


41 


Jos métodos formales a cuestiones epistemológicas fundamentales. 
En este sentido, Der logische Aufbau der Welt de Carnap se convirtió 
en un paradigma para la formalización en filosofía de la ciencia. 

El tema de la unificación de las ciencias empíricas, que acompaña 
el surgimiento de la filosofía de la ciencia en sus inicios, aparece por 
supuesto en la obra de Carnap; sin embargo, aquí se trata principal- 
mente de la unificación de las ciencias en un único marco de con- 
ceptos y no de la unificación de los métodos o de los principios. En 
efecto, un marco conceptual unificado difiere de una metodología 
unificada para establecer un sistema único de verdades científicas. 
Si bien existe una relación entre las dos cuestiones (la primera es 
el presupuesto de la segunda), son, no obstante, diferentes. La se- 
gunda problemática es la que Carnap mismo y otros miembros del 
Círculo de Viena retomarían a partir de los años treinta en una serie 
de ensayos, la mayor parte de los cuales se “publicaron en la revista 
Erkenntnis . Simplificándola un poco, podemos formularla de la ma- 
nera siguiente: ¿cuál es el método apropiado (y si es posible, umver- 
salmente aplicable) para justificar los enunciados científicos (sea cual 
sea la disciplina en la que figuran)? La discusión que surge en torno 
de esta cuestión es conocida en la historia de la filosofía de la ciencia 
como el debate de los “enunciados protocolares”, y tendrá una gran 
influencia en la ruta tomada ulteriormente por la disciplina. 

La idea inicial era que los enunciados (hipótesis, leyes, principios 
fundamentales) de teorías científicas diversas, es decir, los enuncia- 
dos teóricos , tenían que poder fundarse sobre un conjunto de enun- 
ciados de base que, por un lado, no presuponían las teorías en cues- 
tión (en caso contrario, se caería en un círculo vicioso) y que, por 
otro, estaban lo más cerca posible de la experiencia sensorial (pues- 
to que, si queremos evitar la trampa de la metafísica, debemos ad- 
mitir que la experiencia sensorial representa la única base de un 
conocimiento auténtico). Al comienzo del debate, estos enunciados 
fueron llamados “enunciados protocolares”, porque, por su forma 
lógica, debían recordar los protocolos que un científico experimental 
formula cuando pone a prueba una hipótesis teórica cualquiera en 
el laboratorio, después de haber efectuado algunas observaciones o 
experimentos. De hecho, se pensaba que los verdaderos protocolos 
de la práctica científica no eran más que una versión aún no forma- 
lizada de los enunciados básicos en , una representación ideal de la 
ciencia. Se consideraba que los enunciados protocolares justificaban 
. todos los demás enunciados científicos según un principio metodo- 
lógico universal establecido por Carnap y Schlick en esta época: el 



42 El desarrollo moderno de la filosofía de la ciencia (1890-2000) 


principio de verificabilidad. Éstos tomaron el principio (o lo reinter- 
pretaron, si se quiere, pues Peirce ya había sugerido antes la idea) 
de una tesis central del Tractatus de Wittgenstein —a saber, que el 
sentido de un enunciado cualquiera no es otro que sus condiciones 
de verificación, es decir, las condiciones que establecemos para de- 
terminar si el enunciado en cuestión es verdadero o falso—. Si somos 
incapaces de indicar las condiciones .de verificación de un enuncia- 
do, se trata de un “seudoenunciadp?, que carece de sentido a pesar 
de las apariencias: se convierte en "metafísica pura”. 

Ahora bien, para Carnap, los criterios de verificación de una hi- 
pótesis teórica están constituidos, en última instancia, por el conjun- 
to de los enunciados protocolares que se pueden deducir a partir de 
ella. Así, por ejemplo, la hipótesis “una corriente de electrones circu- 
la por este cable”, que es teórica, puesto que no podemos ver ni tocar 
los electrones, queda justificada y pasa a adquirir verdadero sentido 
a partir del momento en que podemos considerar un conjunto de 
enunciados protocolares derivables de ella por vías más o menos 
indirectas: por ejemplo, “si conectamos el cable aquí, yeremos un 
punto luminoso allá abajo”, o “si tocamos el cable, tendremos una 
sensación de quemadura en los dedos”, etc. A partir del principio 
de verificabilidad de Carnap, un enunciado teórico cualquiera T es 
verificado si y sólo si podemos indicar una combinación lógica de 
un cierto número de enunciados protocolares que son verdaderos y 
en su conjunto equivalentes a T\ si descubrimos que esta combina- 
ción de protocolos es falsa, T es fals^; y si no podemos indicar una 
combinación tal de enunciados protocolares de este tipo, debemos 
concluir que el enunciado teórico propuesto carece de significado, 
tratándose, pues, de un pseudoenunciado y, por consecuencia, que 
debe ser eliminado del discurso científico. 

Si admitimos el principio de verificabilidad, disponemos de un 
método universal y uniforme para justificar los enunciados teóri- 
cos de cualquier disciplina gracias a los enunciados protocolares. 
Por su naturaleza, estos enunciados preceden, desde una perspec- 
tiva epistemológica, a una disciplina o a una teoría cualquiera. No 
obstante, una vez llegados a este punto, debemos plantear la cues- 
tión: ¿cómo justificamos los enunciados protocolares mismos? Fue 
en torno a esta cuestión que estalló el famoso “debate de los enun- 
ciados protocolares” en los años treinta. Dos posiciones antagónicas 
se perfilaron entonces: por un lado, una posición que se puede ca- 
lificar d cfundacionista, 2 más o menos asociada al fenomenismo y, por 

2 Traduzco por “fundacionista” y “fundacionismo” lo que algunas veces se tra- 



Fase de eclosión ( 1918-1935 ) 


43 


otro, una posición más bien coherentista y dedicidamente fisicista? 
Los protagonistas de la primera fueron Schlick y Camap; los de la 
segunda, Carnap en un segundo momento, Neurathy, en cierto sen- 
tido, Popper. Según los fundacionistas, los enunciados protocolares 
fundan el conocimiento científico, pero,, en sí mismos, no son sus- 
ceptibles de ser fundados. Son irrevocables porque expresan una 
experiencia inmediata del sujeto de percepción de la que éste no 
puede dudar. He ahí por qué representan el fundamento absoluto 
de la ciencia. No hay nada más debajo, salvo la experiencia subjetiva 
inmediata. 

El problema evidente que presenta esta concepción del funda- 
mento del conocimiento científico es que no da cuenta del carácter 
esencialmente intersubjetivo que se considera tiene este tipo de co- 
nocimiento. Sea cual sea la caracterización ulterior de la ciencia, 
debe ser primeramente concebida como una empresa colectiva y, 
por tanto, intersubjetiva. Carnap intentó responder a esta dificultad 
utilizando una idea que había sido esbozada ya en el Aufbau : lo que 
cuenta para el conocimiento científico no es el contenido particular 
de los enunciados, que puede ser tan subjetivo como se quiera, sino 
su estructura . Si un sujeto establece un protocolo enunciando, por 
ejemplo, “veo un punto luminoso rojo mientras que siento una que- 
madura en los dedos”, y otro sujeto establece su protocolo en los 
mismos términos, poco importa que el contenido de los términos 
“rojo” y “quemadura” sea completamente diferente, por subjetivo, 
para los dos sujetos, si la estructura de los protocolos es la misma. 
Durante esta fase de su pensamiento, lo mismo que en el Aufbau , 
Carnap adopta un punto de vista claramente estructuralista de la na- 
turaleza de la ciencia. 

Para Otto Neurath (Austria, 1882-1945), al contrario, la idea de 
un lenguaje con contenidos subjetivos, incluso si uno establece una 
isomorfía estructural entre sus enunciados, no tiene ningún papel 
que desempeñar en los fundamentos del conocimiento científico. 
La noción misma de lenguaje subjetivo carece de sentido, ya que to- 
do tipo de lenguaje es, por naturaleza, intersubjetivo: aprendemos 
las palabras que empleamos, incluidas palabras tan ligadas a la ex- 
periencia como “rojo” o “quemadura”, en el curso de un proceso 

duce como “fundamentista” y “fundamentismo” y, por influencia del inglés, como 
“fundacionalista” y “fundacionalismo” o, peor aún, como “fundamentalista” y “fun- 
damentalismo”. [N. del t.J 

3 Traduzco mejor por “fisicista” y “fisicismo” los términos más extendidos, por 
influencia del inglés, de “fisicalista” y “fisicalismo”. [N. del t.] 



44 El desarrollo moderno de la filosofía de la ciencia ( 1890-2000) 

social de interacción con otros individuos. Por tanto, Neurath pro- 
pone que uno tome como protocolos enunciados expresados en un 
lenguaje puramente fisicista, es decir, en un lenguaje en el que los 
términos más primitivos se refieren ya a objetos físicos macroscópi- 
cos, tales como mesas, cables, agujas, etc. Estos enunciados protoco- 
lares fisicistas deben ser formulados de una manera estándar, com- 
prensible para todo el mundo, y que represente una idealización de 
los protocolos realizados en el laboratorio. En cuanto tales, no son 
irrevocables y no pueden presentarse como fundamento absoluto del 
conocimiento. 

La dificultad aparente de la posición de Neurath, a su vez, consiste 
en el hecho de que, si los protocolos del lenguaje fisicista no son irre- 
vocables, haría falta, para que fueran aceptables, que diésemos algu- 
na justificación de ellos. Pero, puesto que, por definición, son éstos 
los que a fin de cuentas deben justificar todos los demás enunciados 
de la ciencia, parece que estamos condenados a un círculo vicioso o 
bien a un regressus ad infinitum . Por supuesto, Neurath comprendió 
esta dificultad, pero pretendía evitarla tomando una posición cohe- 
rentista: la justificación de los enunciados protocolares no se hará 
nunca a título individual, sino que deberá ser colectiva: sólo tomán- 
dolos en un conjunto coherente podrán pasar a ser fundamento del 
conocimiento científico. j 

Neurath convenció a Camap (pero no a Schlick) de las ventajas 
metodológicas del fisicismo. No obstante, Carnap fue todavía más 
lejos. En efecto, si los enunciados protocolares no gozan de ningún 
privilegio absoluto, puesto que no están más cerca de la certidumbre 
que los otros, entonces no hay motivo para atribuirles una función 
epistemológica particular. La idea misma de enunciado protocolar 
se vuelve obsoleta. A partir de esta fase del debate,; sus protago- 
nistas no utilizaron más el término de “enunciado protocolar” y se 
limitaron a hablar de “enunciados básicos” o “ enunciados observado- 
nales' , como aquellos que son aceptados en cierto momento por la 
comunidad científica para poner a prueba una hipótesis científica 
teórica cualquiera. Lo que se espera de ellos, desde un punto de 
vista epistemológico más bien vago, es que correspondan de una u 
otra forma a observaciones, validadas de forma intersubjetiva, de 
algunos eventos u objetos físicos. 

Lo que resulta importante para Neurath, Carnap y otros miem- 
bros del Círculo de Viena, es que estos enunciados básicos son 
universales, interdisciplinarios y comprensibles por todos. Como 
Neurath tuvo la ocasión de decir, deben tener un sentido claro 



Fase de eclosión ( 1918-1935 ) 


45 


, “incluso para un chofer de taxi” con el que uno llegue a discutir 
—suponiendo, obviamente, que el vocabulario del chofer de taxi en 
cuestión no haya sido previamente contaminado por la metafísica de 
Hegel o de Heidegger (lo que, crean ustedes según mi propia expe- 
riencia, puede muy bien suceder)—. Sea como sea, Neurath propuso, 
al final del debate sobre los enunciados protocolares, la reconstruc- 
ción del lenguaje apropiado para todas las ciencias en una “jerga” 
universal, una especie de esperanto depurado de toda metafísica 
y comprensible incluso para personas sin formación científica, que 
de esta forma podrían controlar fácilmente las afirmacionés de los 
científicos y evitar ser engañados. Esta propuesta revela un fuerte 
componente social. Para algunos miembros del Círculo de Viena y, 
sobre todo, para Neurath, el fondo de estos debates más o menos 
técnicos estaba marcado no sólo por preocupaciones epistemológi- 
cas y metodológicas, sino también por una motivación sociopeda- 
gógica muy fuerte. No es un azar histórico que, justo después del 
Congreso de filosofía de la ciencia que se celebró en París en 1935, 
Neurath, Carnap y los demás integrantes concibieran la idea de una 
“Enciclopedia de la Ciencia Unificada”; su publicación debía comen- 
zar poco después b.ajo la dirección de Neurath. Esta enciclopedia 
tenía por objetivo la unificación de todas las ciencias, no por sus 
contenidos específicos, sino por el lenguaje básico común, esa "jer- 
ga” universal a la que nos acabamos de referir, y que justamente 
debía ser aprendida por todos los ciudadanos que perteneciesen a 
la misma “concepción científica del mundo”. 

La concepción de la reconstrucción del conocimiento científico 
propagada por el Círculo de Viena y por otros grupos de filósofos 
y científicos en Europa, como el de Hans Reichenbach (Alemania, 
1891-1953) en Berlín, u otros, más restringidos, pero igualmente 
activos, en Polonia, Suecia, Finlandia y Reino Unido, llega así a su 
apogeo a mediados de los años treinta. Esta concepción represen- 
ta lo que de una manera general se puede llamar positivismo lógico. 
Se trata de una visión del edificio conceptual y metodológico del 
conjunto de las ciencias empíricas estrictamente reduccionista , lógico - 
empiirista y verificacionista. Se compone de tres pilares fundamentales 
—uno concerniente a los conceptos, los otros dos a los enunciados 
científicos—. El primero consiste en reducir todos los conceptos cien- 
tíficos, por definiciones estrictas y lógicamente irrebatibles, a con- 
ceptos muy simples de tipo directamente observacional. El segun- 
do pilar póstula que todo enunciado verdaderamente científico es 
puramente analítico o sintético (es decir, que es verdadero o falso 



46 El desarrollo moderno de la filosofía de la ciencia ( 1890-2000) 


en virtud únicamente de su forma lógica, o que es verdadero o fal- 
so en virtud de su contenido empírico). El tercer pilar corresponde 
a los enunciados sintéticos o empíricos: deben ser verificables, al 
menos en principio, por enunciados estrictamente observacionales 
y controlables por todo el mundo. 

4. El operacionalismo 

El operacionalismo de Percy W. Bridgman (Estados Unidos, 1882- 
1961) y sus discípulos representa una metodología de la ciencia pa- 
recida a la propuesta por los positivistas lógicos. Físico reconocido 
especialmente por sus investigaciones en termodinámica, Bridgman 
publica en 1927 una reflexión general sobre los fundamentos de la 
física titulada The Logic ofModern Physics [La lógica de la física mo- 
derna]. Esta obra influye menos en la metodología de la física misma 
que en las disciplinas que en la época se esforzaban por alcanzar 
una categoría indiscutiblemente científica, como las de la psicolo- 
gía o la lingüística. Sin ningún contacto con el Círculo de Viena u 
otros autores europeos, Bridgman se planteó una cuestión bastante 
parecida a la que guió los debates en el seno del positivismo lógico: 
cómo garantizar un contenido empírico real a los conceptos y enun- 
ciados teóricos de la ciencia y de la física en particular. Según él, 
la base empírica de una verdadera ciencia debe ser exclusivamente 
experimental en el sentido riguroso y concreto de operaciones y ma- 
nipulaciones que podemos realizar y controlar intersubjetivamente 
en el laboratorio. Por consecuencia, si no queremos que los concep- 
tos teóricos se vuelvan “metafísicos”, tienen que ser definidos sobre 
la base de las mencionadas operaciones de laboratorio. El ejemplo 
paradigmático de esta interpretación es la noción de temperatura: 
el sentido de este concepto queda reducido a las manipulaciones 
que podemos hacer y constatar con un termómetro. El verdadero 
concepto de base es el de un termómetro (y las manipulaciones que 
podemos hacer con él); la temperatura, al contrario, representa una 
noción derivada del termómetro. Desde este punto de vista, es natu- 
ral proponer la introducción, para toda teoría que pretenda la cate- 
goría de científica, de las así llamadas “definiciones operacionales”, 
es decir, de enunciados donde un concepto teórico queda determi- 
nado por operaciones realizables por instrumentos de laboratorio. 
He aquí una metodología bastante semejante a la reconstrucción del 
lenguaje científico propuesta por el Círculo de Viena. 



Fase de eclosión ( 1918-1935 ) 


47 


5. Un inicio de crisis 

En esta época, los filósofos que se consagran a temas más tradicio- 
nales (y que en las universidades europeas representan la aplastante 
mayoría) no quieren oír hablar del positivismo lógico ni del opera- 
cionalismo. Pero en el seno de la disciplina naciente que entonces es 
la filosofía de la ciencia, las concepciones del positivismo lógico se 
van a imponer más o menos rápidamente en razón de la precisión 
y el rigor jamás alcanzados hasta este momento por ninguna otra 
escuela filosófica. 

Es también en este momento que las ideas más fundamentales del 
Círculo de Víena y de grupos emparentados comienzan a ser puestas 
seriamente en duda. Discusiones y objeciones desembocaron, poco 
después de la Segunda Guerra Mundial, en concepciones sobre la 
estructura y el funcionamiento de la ciencia que, aun si conservan la 
“marca” de sus orígenes, ya no pueden ser calificadas estrictamente 
de “positivistas lógicas”., ' 

La crisis del positivismo lógico presenta un interés histórico en un 
marco más general, pues coincide con el ascenso del fascismo en Eu- 
ropa. La consolidación del fascismo clerical de Dollfuss en Austria 
a la mitad de los años treinta marca la agonía del Círculo de Viena 
como institución académica, mientras que Reichenbach pierde su 
cátedra de Berlín poco después de que los nazis toman el poder. 
Schlick fue asesinado en Viena por un simpatizante nazi en 1936 y, 
el mismo año, Carnap, cada vez más inquieto por la situación polí- 
tica en Europa, decide emigrar definitivamente a Estados Unidos. 
Neurath se exilia, primero en los Países Bajos, y luego en el Reino 
Unido, en circunstancias rocambolescas, cuando las tropas alemanas 
invadieron Holanda. Reichenbach emigró a Estados Unidos después 
de pasar unos años en Turquía. Cari G. Hempel, otro filósofo ber- 
linés, más joven pero muy cercano a Reichenbach, también toma el 
camino de Estados Unidos, al igual que el gran lógico polaco Alfred 
Tarski, quien estuvo en estrecho contacto con el Círculo de Viena 
y el grupo de Berlín. Karl Popper, que no era un miembro formal 
del Círculo de Viena, pero que participaba en sus debates, parte 
primero para Nueva Zelanda y posteriormente para el Reino Unido. 
En 1940, prácticamente todos los miembros importantes del Círculo 
de Viena o' de grupos emparentados habían abandonado la Europa 
continental. Los que no habían fallecido, como Schlick, se encontra- 
ban en un país anglosajón. El centró de gravedad de la filosofía de 
la ciencia se desplaza a partir de esta fecha de la Europa central a 
. Estados Unidos. 



48 El desarrollo moderno de la filosofía de la ciencia (1890-2000) 


Pero estos desplazamientos geográficos (tan dramáticos como 
puedan ser) de los representantes del positivismo lógico no expli- 
can en su parte medular los cambios que la filosofía de la ciencia 
experimentó a partir de entonces, aun cuando los contactos esta- 
blecidos por los filósofos europeos emigrados con los pragmatistas 
americanos desempeñaron algún papel en esto. La crisis del positi- 
vismo lógico proviene principalmente del desarrolló interno de la 
discusión. Los dos “golpes” más duros recibidos por el programa 
neopositivista de reconstrucción de las ciencias incluyen justamente 
dos de sus pilares: el reduccionismo en lo que se refiere a los con- 
ceptos y el verificacionismo en lo que concierne a los enunciados . 
empíricos. El tercer pilar, la distinción dicotómica entre enuncia- 
dos analíticos (lógico-matemáticos) y sintéticos (empíricos), es sacu- 
dido por la crítica radical de la noción de analiticidad hecha por 
Quine; este último golpe fue, históricamente hablando, menos duro 
en el sentido de que no convenció totalmente a numerosos filósofos 
de la ciencia posteriores, quienes han continuado haciendo un uso 
más o menos implícito y más o menos fiel de la distinción entre 
lógica y conocimiento empírico. 



CRISIS DEL POSITIVISMO LÓGICO 
Y CONSOLIDACIÓN DE LA FILOSOFÍA 
DE LA CIENCIA CLÁSICA (1935-1970) 


1. La debacle del verificacioñismo, los problemas del falsacionismo 
y las dificultades del inductivismo 

Hemos dicho que la.crisis del positivismo lógico se debió en lo esen- 
cial al hundimiento de dos de sus pilares fundamentales: el reduc- 
cionismo y el verificacionismo. En lo que concierne al verificacio- 
nismo, según el principio positivista de verificabilidad, si una teoría 
cualquiera pretende tener una categoría científica, debe estar estruc- 
turada de tal modo que sus leyes o postulados sean verificables por 
enunciados observacionales particulares. Ahora bien, las leyes cien- 
tíficas, incluso las más simples, siempre tienen la forma de un enun- 
ciado universalmente cuantificado en el sentido lógico; es decir que, 
esquemáticamente, tienen la siguiente forma: “para todo x, si x tiene 
la propiedad P, entonces x tiene también la propiedad Q” —por ejem- 
plo, “para todo x, si x es un cuervo, entoncés x es negro”—. El criterio 
de verificabilidad requiere que, si queremos aceptar este enunciado 
como auténticamente científico, debemos mostrar que es equivalen- 
te a una conjunción de enunciados observacionales particulares (de 
“protocolos de observación”, si se quiere) tales como: “este cuervo 
que veo a las diez de la mañana en mi jardín es negro”, “este cuer- 
vo qüe veo a las once en el jardín de mi vecino es negro”, etc. Pero 
muy pronto nos damos cuenta de que, por muy grande que sea el 
número de protocolos de este tipo que reunamos sobre los cuer- 
vos y su negrura, nunca llegaremos a establecer una conjunción de 
enunciados particulares que sea lógicamente equivalente al enuncia- 
do cuantificado umversalmente. Para ser más precisos, sólo sería- 
mos capaces de verificar el enunciado general sobre la negrura de 



50 El desarrollo moderno de la filosofía de la ciencia ( 1890-2000) 


los cuervos si estuviésemos seguros de haber examinado todos los 
cuervos que existen, los que han existido y los que existirán hasta 
el día del juicio final; lo que, aun no siendo lógicamente imposible, 
lo es ciertamente desde el punto de vista empírico. En el caso de 
objetos de naturaleza continua, como lo son varios de los presupues- 
tos por la física, no es ni siquiera lógicamente posible. Aun cuando 
aceptáramos una conjunción infinita de enunciados observacionales 
particulares (lo que es ya una suposición bastante rara), el resulta- 
do no sería equivalente al enunciado sobre el continuo: el primero 
representa un infinito numerable, el segundo, no numerable (en el 
sentido preciso de la teoría de conjuntos). 

Aquello con lo que nos enfrentamos aquí no es sino el viejo pro- 
blema de la inducción , planteado por primera vez por David Hume y 
reformulado aquí de una manera un poco más formal. Lo que Hume 
había ya mostrado es que el razonamiento inductivo no es una ga- 
rantía de verdad : a partir de un número n de casos positivos para una 
hipótesis general cualquiera, no se puede concluir la verdad de la hi- 
pótesis para el caso n + 1, por muy grande que sea el número n. De 
esta constatación se sigue que si quisiéramos mantener el principio 
de verificabilidad como criterio de cientificidad, deberíamos renun- 
cia!' a la gran mayoría de enunciados científicos y, particularmente, a 
las leyes de las teorías científicas más importantes, que tienen cierta- 
mente una naturaleza aún mucho más general que nuestro modesto 
ejemplo de los cuervos. El precio metodológico sería, sin duda, de- 
masiado elevado. De modo que es razonable abandonar el principio 
de verificabilidad y admitir que los enunciados típicamente científi- 
cos tienen siempre un carácter irreductiblemente hipotético. 

Uno de los primeros en defender la idea de la naturaleza radi- 
calmente incierta del conocimiento científico, y uno de los primeros 
críticos de la idea tan significativa del Círculo de Viena según la cual 
debería haber fundamentos ciertos, es un autor cercano al Círculo 
que siempre guardó cierta “distancia” en relación con él: el berlinés 
Hans Reichenbach. Incluso antes de la constitución del Círculo, ya 
era bastante conocido por sus obras sobre los fundamentos de la 
relatividad especial y sobre la teoría de probabilidades, y contribuyó 
a la difusión internacional de la concepción del Círculo de Viena. 
Sin embargo, no le satisfacía la denominación de “positivismo lógi- 
co” para caracterizar la nueva filosofía de la ciencia y prefirió la de 
“empirismo lógico”, ya que la palabra “positivismo” tiene connota- 
ciones “dogmáticas” que remiten a la creencia en unos fundamen- 
tos inmutables del conocimiento. Con todo, no es esta divergencia 



Crisis del positivismo lógico 


51 


, de orden temiinológico lo que lo separa más de los miembros del 
Círculo de Viena. Para Reichenbach, el principal problema de las te- 
sis sostenidas por sus amigos vieneses consistía en que la noción de 
probabilidad era la “gran ausente” en sus discusiones. Ahora bien, 
el rasgo central de las ciencias empíricas es precisamente que sus 
enunciados siempre tienen un carácter más o menos probable , con 
una probabilidad inferior a 1. Es esto lo que los distingue de los 
enunciados de la lógica y de la matemática. Puesto que los enuncia- 
dos de las ciencias empíricas son sólo probables, esto quiere decir 
que, aunque se hayan constatado muchos casos positivos, siempre 
pueden resultar falsos. Este probabilismo tiene, según Reichenbach, 
no sólo consecuencias metodológicas, sino también semánticas, para 
el análisis apropiado de los enunciados científicos: su significado es, 
él mismo, probabilístico. En 1938, Reichenbach expone ampliamen- 
te su “empirismo probabilista” —es así como bautiza su concepción— 
en su primera gran obra de filosofía general de la ciencia, Experience 
and Prediction [Experiencia y predicción]. Este libro le valió una cáte- 
dra de filosofía, de la. ciencia en la Universidad de California en Los 
Ángeles, lo que le permitió emigrar de Turquía a Estados Unidos 
justo antes de comenzar la Segunda Guerra Mundial. No obstante, 
aun siendo Reinchenbach bastante respetado por sus colegas en fi- 
losofía de la ciencia, su libro tuvo relativamente poca repercusión 
en el desarrollo inmediato de la disciplina —quizá porque su idea de 
una “semántica probabilista” parecía indefendible—. 

Otro autor próximo al Círculo de Viena, Karl Popper (Austria, 
1902-1994), da el tiro de gracia al verificacionismo de la época con 
su primer libro, Logik der Forschung [La lógica de la investigación], 
aparecido en 1934 y que a partir de entonces se convirtió en uno 
de los grandes clásicos de la filosofía de la ciencia del siglo XX. 
Karl Popper tuvo una formación de matemático, físico y filósofo, 
y como ya se ha mencionado, estuvo regularmente en contacto con 
los miembros del Círculo de Viena, aunque de manera formal no 
fue parte de él. Con su característico sentido de la ironía, Neurath lo 
había descrito como “la oposición leal” al Círculo. En efecto, si biep 
Popper se opuso frontalmente al positivismo lógico en muchas cues- 
tiones fundamentales, siempre compartió con éste las “reglas del 
juego”: rigor en los argumentos, uso dé instrumentos de la lógica for- 
mal, voluntad de distinguir claramente la ciencia de la seudociencia. 
Ahora bien, para Popper, lo que distingue el espíritu auténticamente 
■ científico del que no lo es, no es que el primero conduzca a enuncia- 
dos verificables, sino más bien que lleva a formular hipótesis siempre 



52 El desarrollo moderno de la filosofía de la ciencia (1890-2000) 


reconocidas como esencialmente inciertas, es decir, enunciados que 
siempre pueden ser refutados por la experiencia. En lugar del prin- 
cipio de verificabilidad, Popper propone el principio de falsabilidad 
como marca distintiva de todo procedimiento verdaderamente cien- 
tífico: hay que proponer teorías e hipótesis indicando claramente en 
qué casos pueden resultar falsas. Esta máxima es el reflejo normati- 
vo del hecho lógico de que las hipótesis científicas (al menos las más 
importantes para el conocimiento) tienen la forma lógica de enun- 
ciados universalmente cuantificados. La proposición según la cual 
todos los cuervos son negros es un verdadero ejemplo, aunque pri- 
mitivo, de hipótesis científica ya que, si bien no la podemos verificar, 
en cambio la podemos “falsar” 1 muy fácilmente: basta encontrar un 
día un solo cuervo de otro color. Es la diferencia esencial entre las 
teorías científicas, por un lado, y los sistemas metafísicos, por otro: 
estos últimos están inmunizados contra toda experiencia; pueden 
siempre “reinterpretarse” de manera que sigan siendo “verdaderos”, 
pase lo que pase. Es por esta razón que no nos procuran forma algu- 
na de auténtico conocimiento. Además, según Popper, el principio 
de falsabilidad nos permite hacer desaparecer pura y simplemente 
el problema de la inducción: el pretendido razonamiento inducti- 
vo no representare hecho ninguna forma de razonamiento válido. 
El único tipo dé razonamiento científico aceptable es el que sigue 
las reglas de la lógica (deductiva) y basta para caracterizar de ma- 
nera adecuada la metodología científica. Las ciencias empíricas no 
son “ciencias. inductivas”, como se había dicho; son tan deductivas 
como las matemáticas, con la única diferencia de que las ciencias 
empíricas son además falsables. 

La obra de Popper tuvo un impacto inmediato sólo sobre los 
miembros del Círculo de Viena y sus allegados; no fue sino hasta 
más tarde, a partir de los años cincuenta, después de su traduc- 
ción al inglés (y a varias otras lenguas), que comenzó a tener una 
influencia verdaderamente fuerte sobre un público filosófico y cien- 
tífico mucho más amplio. Durante la segunda mitad del siglo XX, 
el “racionalismo crítico”, como Popper bautizó su propia posición, 
se convirtió en la filosofía de la ciencia predominante en el Reino 
Unido. Sin embargo, con el tiempo, la metodología popperiana fue 

1 En francés “falsifier” se traduce generalmente por “falsificar” o “falsear”, pero 
en español se ha impuesto “falsar” como traducción del término técnico de Popper, 
el cual debe entenderse en el sentido de “refutar”. Lo mismo ocurre con el término 
“falsificationnisme” que he traducido por el que, en este contexto, es más corriente 
en español: “falsacionismo”. [N. del t.] ¡ 



Crisis del positivismo lógico 


53 


.objeto de una serie de críticas que partían de puntos de vista dis- 
tintos, pero convergentes hacia una fundamental puesta en cuestión 
del método falsacionista. 

La crítica más conocida del público no especializado consistió en 
la objeción fundamental según la cual, el falsacionismo popperiano 
propone una imagen completamente deformada de la manera real 
de proceder de las ciencias empíricas, de su dinámica interna. En 
el capítulo siguiente me ocuparé de esta crítica, a propósito de la 
revuelta “historicista” en la filosofía de la ciencia de los años sesenta. 

Abordemos ahora otro problema, más interno, pero significa- 
tivo, al cual se enfrenta la metodología falsacionista popperiana 
—problema que fue planteado ya en las primeras discusiones en 
el seno del Círculo de Viena— . Este problema proviene del hecho 
lógico-metodológico siguiente: aceptemos de entrada, como Popper 
pretende, que las hipótesis científicas más fundamentales tengan la 
forma de enunciados umversalmente cuantificados y que, por esta 
razón, no pueden ser verificadas, sino sólo falsadas. Para Popper, 
las hipótesis que no tienen la forma de enunciados cuantificados um- 
versalmente sino existencialmente son aceptables como enunciados 
científicos sólo en. la medida en que puedan deducirse de hipótesis 
más generales cuantificadas umversalmente. Ahora bien, se puede 
constatar la presencia en todas las disciplinas científicas, sobre todo, 
fuera de la física, de hipótesis existenciales bastante fundamentales 
que no son derivables de enunciados universalmente cuantificados, 
pero cuya categoría científica nadie pondría en discusión. Por razo- 
nes estrictamente lógicas, los enunciados existencialmente cuantifi- 
cados son verificables pero no falsables, o en todo caso, si lo son, lo 
son muy difícilmente. Por ejemplo, no existe ninguna buena razón 
para calificar de “metafísica” o “seudocientífica” una hipótesis del 
tipo: “existen o han existido formas de vida en alguna otra parte 
de nuestra galaxia además de la Tierra”. Ahora bien, claramente, si 
bien es fácil imaginar una verificación de esta hipótesis (por ejem- 
plo, si encontramos restos de bacterias en Marte o en un meteori- 
to), es muy difícil imaginar cómo podríamos “falsaria” (para ello, 
deberíamos viajar a través del espacio y del tiempo por todos los 
rincones de la galaxia). Este género de hipótesis es aún más frecuen- 
te en las ciencias sociales (psicología, sociología, lingüística, etc.). 
Es más, desgraciadamente para Popper, en los dominios más teó- 
ricos de la física nos encontramos con un tipo de enunciados que 
tienen una forma lógica tal que /no son estrictamente falsables ni 
verificables en sí mismos. No podemos entrar en la discusión de 



54 El desarrollo moderno de la filosofía de la ciencia ( 1890-2000) 


detalles técnicos para mostrar este punto; nos limitaremos a señalar 
que se trata de enunciados que, de acuerdo con un análisis lógico 
adecuado, revelan cierta combinación de cuantificadores universa- 
les y exis tendales, (He aquí dos ejemplos significativos: el segundo 
principio de Newton, que en los manuales se formula como “fuerza 
igual a masa por aceleración”, pero que de hecho tiene una forma 
lógica mucho más complicada, y las .leyes básicas de la termodiná- 
mica.) 2 Si decidiéramos persistir $íi la aplicación de la metodología 
falsacionista, tendríamos que excluir del discurso científico una can- 
tidad tan considerable de hipótesis y de teorías como en el caso del 
ver ificacionismo . 

Una tercera razón para considerar inverosímil la metodología 
popperiana seguida al pie de la letra es la siguiente. Incluso si limi- 
tamos nuestra atención a hipótesis generales efectivamente falsables 
(como la hipótesis de la negrura de los cuervos), el falsacionismo es- 
tricto sencillamente no corresponde a la práctica científica. En efec- 
to, al rechazar totalmente toda forma de razonamiento inductivo, la 
metodología popperiana hace que nos deba ser indiferente encon- 
trar un gran número de casos positivos de una hipótesis, o bien un 
pequeño número, o bien ninguno. Aparentemente, la única cosa que 
debería, contar para un científico que siga la metodología falsacio- 
nista sería encontrar un caso negativo. Retomando nuestro ejemplo 
de los cuervos, la persona que formula la hipótesis “todos los cuer- 
vos son negros” sin haber visto jamás un cuervo negro estaría en la 
misma situación epistémica que el que formula la misma hipótesis 
después de haber visto 1 000 cuervos negros y ninguno de otro co- 
lor. Ahora bien, aun cuando el razonamiento inductivo no es válido 
desde un estricto punto de vista lógico, todo el mundo considera 
“intuitivamente” que, cuando pasamos de la primera situación des- 
crita a la segunda, se realiza un progreso en nuestro conocimiento. 

De hecho, Popper mismo era consciente, por supuesto, de la na- 
turaleza altamente antiintuitiva del falsacionismo sin calificativos y, 
por esta razón, introdujo el concepto de corroboración : cuando se 
constata un gran número de casos positivos para una hipótesis de- 
terminada y ningún caso negativo, es cierto que uno no puede cer- 
tificar que la hipótesis en cuestión sea verdadera, pero se puede 
afirmar que ha sido “corroborada en una cierta medida”. En sus 
escritos posteriores de los años cincuenta y sesenta y, sobre todo, en 
Objective Knowledge (1972) [Conocimiento objetivo], Popper intentó 

2 El lector encontrará un análisis detallado de la forma lógica de estos dos ejem- 
plos en mi libro Exploraciones me taden tíficas, § 3. 



Crisis del positivismo lógico 


55 


, introducir un concepto formal preciso para resolver este problema 
—la noción de verosimilitud : no podremos jamás estar seguros de que 
una hipótesis científica general sea verdadera, pero podemos asegu- 
ramos que es más o menos verosímil; y podremos admitirla en el 
corpus de disciplinas verdaderamente científicas si tiene un alto gra- 
do de verosimilitud—. Sin embargo, muchos autores han demostra- 
do formalmente que la definición original de Popper de esta noción 
conduce a contradicciones lógicas insolubles. Más adelante, otros 
autores, que estrictamente hablando no fueron discípulos de Pop- 
per, pero que fueron inspirados por su obra, particularmente Hkka 
Niiniluoto (Finlandia, nacido en 1947) en su tratado Truthlikeness 
(1987) [Verosimilitud], han intentado desarrollar un sistema formal- 
mente coherente de la verosimilitud. Hasta el presente, sin embargo, 
ninguno de los sistemas propuestos ha resultado verdaderamente 
convincente, sea porque conducen a consecuencias contradictorias 
con la práctica científica, sea porque se ven obligados a dar valo- 
res arbitrarios al grado cíe verosimilitud de hipótesis universalmente 
cuantificadas. 

Para compensar las consecuencias inaceptables tanto del verifi- 
cacionismo como del falsacionismo, a partir de los años cuarenta, 
Carnap comienza a desarrollar lo que llama una “lógica inductiva”. 
Admite la crítica de Popper, según la cual el razonamiento inductivo 
no es capaz de conducirnos a una conclusión absolutamente cierta. 
Pero esto no quiere decir que las formas inductivas de razonamiento 
sean siempre inadecuadas para los procedimientos científicos. Por 
el contrario, esta forma de razonamiento nos permite llegar a la 
conclusión de que una hipótesis determinada, para la cual hemos 
encontrado casos positivos y ninguno negativo, es más o menos pro- 
bable. El razonamiento inductivo representa simplemente una forma 
de razonamiento probabilista, que no tiene nada de arbitrario. Así, la 
noción de probabilidad (tal y como Reichenbach había preconizado 
ya algunos años antes) está situada en el corazón de la filosofía de la 
ciencia a partir de 1950. Para Carnap, una tarea fundamental de los 
filósofos de la ciencia debe ser clarificar la noción de probabilidad 
y determinar el papel que tiene que desempeñar en una reconstruc- 
ción lógica de la metodología científica. 

Es sintomático que el título del tratado fundacional de Carnap 
en este dominio contenga el término “probabilidad” y no más el de 
“inducción”: Logical Foundations of Probability (1950) [Fundamentos 
lógicos de la probabilidad]. Según Carnap, el verdadero sentido de 
la inducción consiste en atribuir a las hipótesis científicas generales 



56 El desarrollo moderno de la filosofía de la ciencia ( 1890-2000) 


lo que se llama, en términos habituales de la teoría de probabili- 
dades, probabilidades condicionales ; se trata, pues, de desarrollar un 
sistema de reglas formalmente consistente y lo más intuitivo posible, 
que permita calcular, tomando un enunciado observacional parti- 
cular e (verificado o verificable en tanto que enunciado particular), 
cuál es la probabilidad de la hipótesis general h a partir de la cual 
podemos deducir formalmente el enunciado e. Al utilizar el simbo- 
lismo habitual del cálculo de probabilidades, se trata en definitiva 
de poder calcular el valor de la función p{h/e). Volviendo a nuestro 
modesto ejemplo, se trataría de construir un sistema formal de infe- 
rencia no deductiva que nos permita calcular la probabilidad de la 
hipótesis “Todos los cuervos son negros” partiendo del enunciado 
observacional verificado “El cuervo que he visto esta mañana era 
negro”. Es claro que el sistema debe construirse de manera tal que 
la probabilidad de la hipótesis examinada sea diferente y mayor si el 
enunciado particular verificado no es solamente “El cuervo que he 
visto esta mañana era negro”, sino más bien la conjunción de enun- 
ciados “El cuervo que he visto esta mañana era negro” y “El cuervo 
que vi ayer por la tarde era negro”. Y si la conjunción se compone de 
un número aún mayor de enunciados básicos, la probabilidad de la 
hipótesis deberá aumentar uniformemente, y así sucesivamente. No 
obstante, también es necesario tener en cuenta la condición según 
la cual todos estos enunciados particulares deben ser consecuencias 
lógicas deductivas de la hipótesis general examinada. Para Carnap, 
en esta etapa de su pensamiento, un sistema de razonamiento in- 
ductivo aceptable no puede ser sino una combinación coherente de la 
lógica “normal”, deductiva, con la teoría de la probabilidad. 

Desgraciadamente, el proyecto inicial de Carnap de desarrollar 
una “lógica inductiva” tal, a pesar de su carácter razonable prima 
facie , pronto se topó con una serie de dificultades, más o menos 
técnicas. La más importante, sin duda, reside en el hecho, de que, 
en el sistema camapiano original, se puede deducir formalmente 
que la probabilidad de una hipótesis universalmente cuantificada, 
sea cual sea el número de enunciados observacionales particulares 
que la apoyen, simplemente pasa a ser nula si el dominio de objetos 
a los cuales la hipótesis en cuestión hace referencia es infinito; éste 
es el caso, al menos en la interpretación habitual, de la mayoría de 
las leyes más fundamentales de la física teórica (siendo el espacio 
y el tiempo continuos). Carnap mismo pronto se da cuenta de esta 
dificultad e intenta superarla introduciendo nuevos axiomas en su 
sistema o dando una interpretación distinta a los axiomas ya intro- 



Crisis del positivismo lógico 


57 


,ducidos. Esto constituye la tarea emprendida por Carnap en traba- 
jos posteriores como The Continuum of Inductive .Methods (1952) [El 
continuo de los métodos inductivos] y, sobre todo, en su gran obra 
Studies in Inductive Logic and Probability [Estudios en lógica inductiva 
y probabilidad], escrito en colaboración con su discípulo Richard 
Jeffrey (Estados Unidos, 1926-2002) y publicado en dos partes en 
1971 y 1980, después de la muerte de Carnap. Esta obra representa 
la culminación de los esfuerzos por establecer una lógica inductiva 
metodológicamente aceptable. 

Numerosos autores han contribuido al programa carnapiano, 
proponiendo mejoras o cambios más o menos radicales. Además de 
Richard Jeffrey, podemos .mencionar ajaakko Hintikka (Finlandia, 
nacido en 1932) y Wolfgang Stegmüller (Austria, 1923-1991), entre 
otros. A pesar de todos estos esfuerzos (o quizá justamente a causa 
de ellos), la idea carnapiana original de desarrollar un verdadero 
sistema único de inferencia inductiva que sea de naturaleza esen- 
cialmente objetiva parece 'estar definitivamente abandonada hoy en 
día. Actualmente la herencia carnapiana se encuentra más bien en 
la reconstrucción formal de procedimientos diversos de inferencia 
epistémica, que son instancias de procedimientos subjetivos , aunque 
racionales, y que se encontrarían en la base de razonamientos proba- 
bilísticos o estadísticos en la práctica científica de todos los días. Una 
reinterpretación del programa carnapiano relativamente reciente en 
este contexto la representa el desarrollo de lo que se llama “máqui- 
nas inductivas”. Se entienden por tales programas informáticos que 
permiten atribuir todo un espectro de valores probabilísticos a hipó- 
tesis partiendo de datos particulares; es un trabajo que tiene cierta 
repercusión en el dominio de la inteligencia artificial. 

2. La crisis del reduccionismo conceptual 

Al comienzo de este capítulo he recordado que dos elementos clave 
del positivismo lógico, el reduccionismo y el verificacionismo, fue- 
ron puestos en duda a mediados de la década de 1930 para de- 
rrumbarse poco después y dar lugar a nuevas concepciones de la 
metodología y de la estructura conceptual del conocimiento científi- 
co. Hasta aquí he descrito el proceso de abandono y reemplazo del 
yerificacionismo, sea por el falsacionísmo popperiano o por el in- 
ductivismo lógico de Carnap y, aún más tarde, por las concepciones 
más epistémicas (o “subjetivistas”) de sus herederos. Consideremos 
ahora el otro pilar del positivismo lógico derribado: el reduccionis- 
mo, es decir, la idea según la cual todos los conceptos científicos, 



58 El desarrollo moderno de la filosofía de la ciencia ( 1890-2000) 


en la medida en que pretenden tener un sentido empírico, deben 
ser reducibles, por medio de cadenas más o menos largas de defi- 
niciones, a conceptos estrictamente observacionales. Camap mismo 
es quien en su obra Tesiability and Meaning , publicada en dos partes 
entre 1936 y 1937 ataca las bases del programa reduccionista al que 
él había contribuido de manera decisiva en sus escritos precedentes. 
Los primeros resultados antirechiccionistas que Carnap obtuvo 
en este ensayo tienen que ver con él análisis semántico de una cierta 
categoría de conceptos científicos que, en primera instancia, apare- 
cen como bastante “inofensivos” desde un punto de vista empirista: 
se trata de los conceptos llamados "disposicionales”, es decir, de 
conceptos que se refieren a disposiciones atribuidas a ciertos obje- 
tos a comportarse de manera determinada cuando son sometidos a 
unas condiciones determinadas. El ejemplo paradigmático de este 
género de conceptos viene representado por la noción de “solu- 
bilidad”, tan importante en química y que nadie sospecha que es 
una noción “metafísica”. Cuando atribuimos a un objeto cualquiera 
(por ejemplo, un terrón de azúcar) la propiedad de solubilidad, le 
estamos atribuyendo una cualidad que no es inmediatamente per- 
ceptible por nuestros sentidos: lo que percibimos directamente del 
terrón de azúcar es que es blanco, dulce, poroso y otras cualidades 
semejantes. Sin duda, sabemos (o creemos saber) que el terrón de 
azúcar, suponiendo que lo introdujéramos en una cantidad suficiente 
de un líquido no demasiado denso, se disolvería] después de lo cual el 
terrón en sí habría dejado de existir, justamente porque se habría di- 
suelto y cesaría de ser objeto de nuestra percepción. La cuestión que 
se le plantea en este punto al positivista o al empirista “puro y duro” 
es la siguiente: ¿ cómo definir la propiedad llamada “solubilidad” en 
términos de percepción inmediata? En principio, la respuesta a esta 
cuestión parece muy fácil de dar. Podríamos proponer una “defini- 
ción operacional” a la manera de Bridgman del tipo: “El objeto x es 
soluble si y sólo si la siguiente condición operacional es satisfecha: si 
x se introduce en una cantidad suficiente de agua pura (situación ella 
misma directamente observable), entonces x desaparece en el agua 
(situación asimismo directamente observable).” Esta definición pro- 
puesta tendría, pues, una forma lógica aparentemente impecable. En 
efecto, utilizando las abreviaciones “ Sx ” por “x es soluble”, “Ac” por 
“x se introduce en agua pura” y “jDx” por “x desaparece”, obtenemos 
la fórmula: 


Sx «B- (. Ax — > Dx ). 



Crisis del positivismo lógico 


59 


, En esta fórmula, Ay D representan de manera incontestable pre- 
dicados puramente observacionales; y puesto que se trata de una 
equivalencia lógica entre S de un lado y la combinación de A y D 
del otro, S pasaría a ser aparentemente un predicado observacional, 
gracias a su “reducción” a los predicados Ay D. 

Ahora bien, ¿qué pasaría si tomáramos como instancia de la va- 
riable x un trozo de madera que nunca se ha introducido en agua y 
que quemamos antes de que pueda serlo? En este caso, el predicado 
A nunca sería satisfecho por el trozo de madera en cuestión; de ahí 
que, aplicando las reglas más elementales de la lógica proposicional, 
el enunciado condicional “ Ax — > Dx” siempre será verdadero en el 
caso del trozo de madera.y, por tanto, según nuestra “definición ope- 
racional”, deberemos concluir que el trozo de madera es soluble . . . 3 

En vista de este resultado, y tomando en cuenta que nadie querrá 
cambiar las reglas más elementales de la lógica, debemos concluir 
que la definición de la solubilidad debe ser formalizada de otra ma- 
nera. Podemos, en efectb, constatar fácilmente que hay una manera 
formalmente impecable de distinguir la solubilidad de trozos de azú- 
car de la insolubilidad de trozos de madera: si se sumerge el objeto 
x en una cantidad suficiente de agua, entonces x es soluble si y sólo 
si x se disuelve en el agua, formalmente: 

“A* — >• (Sx <+ Dx)*. 

En efecto, esta fórmula es verdadera de terrones de azúcar y falsa 
de trozos de madera, suponiendo siempre que sean sumergidos primera- 
mente en el agua . 

A este tipo de fórmulas, que sería apropiado para introducir toda 
suerte de conceptos disposicionales (y que desempeña un papel im- 
portante en muchas disciplinas, como la física, la química y la psi- 
cología), Carnap lo ha llamado “enunciados reductivos”, porque en- 
tonces aún creía que, valiéndose de ellos en los casos en que una 
definición á la Bridgman no era posible, podría salvar lo esencial 
del programa reduccionista en filosofía de la ciencia. Sin embargo, 
hay que señalar aquí (y Carnap lo reconoció honestamente) que es- 
tos “enunciados reductivos” no representan ninguna verdadera de- 
finición desde un punto de vista formal riguroso: en efecto, para 
todos aquellos objetos, trátese de terrones de azúcar, de madera o 
de otras cosas, que nunca se han introducido en agua y que por 

3 Recordemos que, según las reglas de la lógica elemental, todo enunciado con- 
dicional de la forma "p q” es siempre verdadero si el antecedente "p” es falso. 



60 El desarrollo moderno de la filosofía de la ciencia (1890-2000) 


alguna razón no pueden serlo (por ejemplo, porque son demasiado 
grandes o están muy alejados de la Tierra, o porque fueron destrui- 
dos previamente, etc.), el predicado “S”, es decir la solubilidad, no es 
definible. Se podría hablar, si se quiere, de una “definición parcial” . 
Pero, de hecho, una “definición parcial” no es una definición en ab- 
soluto; sea cual sea la manera en que interpretamos los enunciados 
reductivos de este género, no nos permiten reemplazar un concepto 
problemático no directamente observable (en nuestro ejemplo, la 
solubilidad) en todos los contextos posibles por conceptos auténtica- 
mente observacionales. Asimismo podemos expresar este resultado 
de la siguiente manera: el programa reduccionista fuerte del posi- 
tivismo lógico, que pretende desarrollar una estrategia lógicamente 
impecable para impedir la reintroducción dentro del discurso de 
la ciencia de términos que no siempre tienen un sentido empírico 
probado, se vuelve estrictamente irrealizable. Quedá, pues, abierta 
una puerta a la “metafísica”. . . 

Fue así como surgió un largo debate a finales de j los años trein- 
ta sobre la naturaleza de los conceptos científicos no directamente 
observacionales. Este debate, descrito luego como “el problema de 
los conceptos (o de los términos) teóricos”, habría de durar varias 
décadas y, en cierto sentido, continúa abierto hoy en día. Se iba a 
constatar muy pronto que los conceptos disposicionales del género 
“solubilidad” no representan más que un pequeño subgrupo entre 
la gran masa de todos aquellos conceptos que, en las ciencias más 
o menos avanzadas, no son reducibles por definición a conceptos 
observacionales. Carnap mismo y otros autores que participaron en 
este debate se dieron cuenta en uno u otro momento de que la gran 
mayoría de los conceptos más fundamentales, los más “abstractos”, 
si se. quiere, de las ciencias empíricas no son en absoluto definibles 
a partir de conceptos observacionales, incluso si uno está dispuesto 
a introducir fórmulas muy complicadas para definirlos. Para la ma- 
yoría de estos conceptos, no seremos capaces de encontrar ni siquie- 
ra “enunciados reductivos” del género ilustrado por la solubilidad, 
es decir, enunciados que, aun no siendo definiciones en el sentido 
riguroso del término, “se parecen” lo suficiente a las auténticas defi- 
niciones. Conceptos como “fuerza”, “energía”, “campo electromag- 
nético”, “electrón”, “entropía”, “gen”, “adaptación selectiva”, “inteli- 
gencia” y aun otros en física, química, biología, psicología, etc., esto 
es, conceptos que desempeñan un papel fundamental en teorías que 
nadie osaría descalificar como “metafísicas” —todos estos conceptos 
se encuentran, en comparación con los conceptos disposicionales, 



Crisis del positivismo lógico 


61 


, aún más alejados tanto desde un punto de vista lógico como de uno 
epistemológico, de conceptos puramente observacionales como los 
que expresan predicados como “agua”, “transparente”, “azul”, “dul- 
ce”, “caliente”, etc.—. Si decidiéramos suprimir de nuestro discurso 
científico todos estos conceptos indefinibles en relación con la base 
observacional para satisfacer los principios del programa reducti- 
vo empirista, nos veríamos obligados a constatar que tenemos que 
abandonar la mayor parte de lo que ha constituido la ciencia mo- 
derna desde el siglo XVII. Como ocurría con el verificacionismo, de- 
bemos admitir aquí también que el precio a pagar sería demasiado 
elevado y que es mejor sacrificar un ideal filosófico (incluso con el 
riesgo de dejar una puerta abierta a la metafísica o a la seudociencia) 
más que abandonar instrumentos de conocimiento que han probado 
su eficacia. 

En consecuencia, después de la Segunda Guerra Mundial se hace 
claro para los pensadores que analizan la relación entre teoría y ex- 
periencia —el tema central de toda la filosofía de la ciencia— que 
los conceptos más fundamentales de las teorías científicas, sobre 
todo en las disciplinas más adelantadas, no son. reducibles a con- 
ceptos de experiencia inmediata o “de laboratorio”, aun cuando 
estemos dispuestos a emplear técnicas refinadas de la lógica y las 
matemáticas para construir cadenas definicionales muy complica- 
das. Incluso las “definiciones parciales” o “enunciados reductivos” 
de Caraap o las “definiciones operacionales” de Bridgman no pue- 
den ser utilizadas para determinar el contenido de los conceptos teó- 
ricos más poderosos de las ciencias, muy alejados de nociones .más 
bien elementales como “soluble”, que sqn bastante próximas a la 
experiencia. 

3. Una excepción alemana 

Aunque esta conclusión fue aceptada por la mayor parte de los fi- 
lósofos de la ciencia a partir de los años cuarenta, no lo fue por 
todos. En la filosofía de la ciencia alemana de los años 1960-1970, 
encontramos que algunos epistemólogos persiguieron, por métodos 
bastante diferentes de los del positivismo lógico, la idea de una re- 
ducción operacional de conceptos teóricos de las ciencias avanza- 
das, sobre todo de la física. La corriente más comprometida en esta 
idea está representada por la llamada Escuela de Erlangen, funda- 
da en los años cincuenta por el lógico y matemático Paul Lorenzen 
(Alemania, 1915-1994), quien al principio se impuso la meta de dar 
a las matemáticas fundamentos nuevos, independientes de la lógica 



62 El desarrollo moderno de la filosofía de la ciencia ( 1890-2000 ) 


clásica y de la teoría de conjuntos (disciplinas que según Lorenzen 
eran sospechosas de reintroducir elementos no controlables, “espe- 
culativos”). Para Lorenzen y sus discípulos, la base de todo conoci- 
miento humano no es otra que las operaciones o manipulaciones 
concretas, o “acciones” (. Handlungen ), que un sujeto humano pue- 
de efectivamente realizar, sea mediante lápiz y papel, sea median- 
te instrumentos estandarizados de laboratorio. Para fundar de esta 
manera las ciencias formales —la lógica y la matemática—, Lorenzen 
desarrolló en una primera fase de su carrera intelectual una lógica 
operativa, próxima a la lógica intuicionista, en la que cierto número 
de principios y métodos de demostración de la lógica y las matemáti- 
cas clásicas (por ejemplo, la demostración por reductio ad absurdum) 
ya no son válidos. 4 

Con el tiempo, Lorenzen y sus discípulos, sobre todo Peter Janich 
(Alemania, nacido en 1942), han ampliado el campo de sus intereses 
epistemológicos proponiendo también una refundación operativis- 
ta (o “constructivista”, como fue llamada más tarde) de la física. Así 
nace el muy ambicioso programa de la protofísica {Protophysik), dis- 
ciplina que sería más fundamental que las teorías físicas existentes y 
propone reconstruir los conceptos físicos más fundamentales, como 
la distancia, el tiempo o la masa, independientemente de toda ley 
teórica general, utilizando solamente operaciones o manipulaciones 
muy concretas que todo el mundo puede realizar en el laboratorio, 
incluso sin bagaje teórico alguno. El tratado más sistemático de la 
protofísica erlanguiana es el que Peter Janich consagró a la cons- 
trucción operacional de la noción de tiempo: Die Protophysik der Zeit 
(1969) [La protofísica del tiempo]. 

Este programa de reconstrucción fundacionista de la física, difí- 
cilmente compatible con el carácter fuertemente hipotético y abs- 
tracto de la física contemporánea, ha conducido a los miembros 
de la Escuela de Erlangen a criticar a veces con vehemencia, para 
sorpresa general, teorías científicas muy reputadas, como la teoría 
especial de la relatividad, pues el operativismo o constructivismo 
de Erlangen tiene un fuerte componente normativo , en el sentido 
de que su objetivo es explicitar las reglas o normas que todas las 
disciplinas en su construcción de conceptos y principios deberían 
seguir; representa probablemente en el siglo XX el enfoque más de- 
cididamente normativo de la filosofía de la ciencia del siglo XX —aun 
cuando los practicantes de las ciencias empíricas mismas, como se 

4 El texto fundamental de Paul Lorenzen es Einführung in die operative Logik und 
Maihemaiik [Introducción a la lógica y matemática operativas], aparecido en 1955. 



Crisis del positivismo lógico 


63 


podía esperar, continúan ignorando las normas defendidas por los 
constructivistas de Erlangen— . 

4. La doctrina de los dos niveles conceptuales 

Dejando de lado las excepciones “operativistas” alemanas, la ten- 
dencia general entre la gran mayoría de filósofos de la ciencia siguió 
siendo la misma tras el derrumbe del positivismo lógico: abandono 
de los programas reduccionistas conceptuales como el de Mach, 
Russell, Bridgman, el primer Camap, etc., lo que desembocó en 
una forma moderada o atenuada de empirismo. En la literatura 
especializada, esta concepción ha sido a menudo descrita como la 
“concepción de los dos niveles” del conocimiento científico. Según 
ella, las teorías científicas son estructuras articuladas, tanto desde 
el punto de vista epistemológico como metodológico, por dos ni- 
veles conceptuales claramente distintos: por un lado, el nivel, por 
así decir, “infraestructura!”, el de los conceptos observacionales, que 
. son completamente independientes de las teorías científicas y que se 
refieren de una manera más o menos directa a las experiencias co- 
munes a todos los seres humanos —es decir, a todo lo que podemos 
percibir mediante los sentidos, incluso si éstos deben ser “asistidos” 
por instrumentos especiales, como telescopios, microscopios, etc.—; 
y, por otro, un nivel “superestructura!”, el de los conceptos teóricos, 
cuya referencia escapa por principio a toda observación directa o 
asistida de instrumentos. Estos conceptos teóricos son introducidos 
para construir teorías de un alto grado de abstracción, articuladas 
por leyes fundamentales que justamente no pueden formularse sin 
utilizar este género de conceptos. (Recordemos las nociones abstrac- 
tas que aparecen en las leyes de la mecánica cuántica, la electrodi- 
námica o la genética.) Un rasgo característico de las disciplinas más 
avanzadas es precisamente el papel absolutamente esencial que los 
conceptos teóricos desempeñan en su formulación. Una teoría cien- 
tífica cuyos conceptos fueran solamente observacionales sería una 
teoría “empobrecida”. 

De cualquier manera, la concepción de los dos niveles se pro- 
ponía “salvar” aun una visión tan empirista como fuese posible de 
la ciencia y evitar que uno pueda detectar, en el discurso de co- 
nocimientos científicos auténticos, términos “seudocientíñcos”. Para 
consolidar esta visión, se postulan dos principios, uno epistemoló- 
gico, otro metodológico: en primer lugar, decir que el contenido 
verdaderamente epistémico del discurso científico se encuentra, en 
último término, en el nivel puramente observacional, porque consti- 



64 El desarrollo moderno de la filosofía de la ciencia (1890-2000) 


tuye la última instancia del control de las teorías; luego, los dos nive- 
les, el teórico y el observacional, no deben concebirse separados uno 
del otro: en el caso de una teoría auténticamente científica, los con- 
ceptos teóricos tienen que aparecer vinculados, aun cuando la vía 
sea muy indirecta y compleja, con algunos conceptos observaciona- 
les. Este vínculo debe poder expresarse mediante enunciados de un 
género particular, enunciados “mixtos”, en los cuales se encuentran 
algunos conceptos teóricos y algünos conceptos observacionales. No 
hay que buscar necesariamente una forma lógica particular para este 
tipo de enunciados (por ejemplo, los condicionales bicondicionales 
previstos por Carnap para los enunciados reductivos, aun cuando 
éstos constituyan, por supuesto, una posibilidad siempre abierta); to- 
do lo que uno espera de ellos es que su forma lógica pueda hacerse 
explícita formalmente de alguna manera. La denominación están- 
dar utilizada para estos enunciados mixtos de vinculación es la de 
“reglas de correspondencia”. A veces, se encuentra en la literatura 
la denominación de “postulados de significado” ( Bedeutungspostulate 
en alemán, meaning postúlales en inglés). La razón de esta segunda 
denominación es que presupone que son estos enunciados y sólo 
ellos los que dotan de significado empírico a los conceptos teóricos. 

De aquí se sigue que a la dicotomía entre los dos niveles concep- 
tuales corresponde una tricotomía entre tres clases de! enunciados del 
corpus científico: toda buena teoría científica contiene enunciados 
puramente teóricos, puramente observacionales y enunciados “mix- 
tos”. Los primeros contienen solamente términos teóricos (por ejem- 
plo, “electrón”, “campo electromagnético”, “entropía”, “gen”, “neu- 
rosis”, etc.), y representan típicamente las leyes fundamentales de la 
teoría en cuestión; las reglas de correspondencia vinculan algunos 
conceptos teóricos con algunos conceptos observacionales; y la ter- 
cera categoría de enunciados contiene términos que se refieren ex- 
clusivamente a experiencias directas, posibles o reales (por ejemplo, 
“relámpago”, “caliente”, “guisante”, “insomnio”, etc.); representan 
justamente las constataciones de observaciones o los “protocolos” de 
laboratorio. Gracias a las reglas de correspondencia, podemos evi- 
tar el riesgo de reintroducir subrepticiamente ideas metafísicas: aun 
cuando un concepto puramente teórico de una ley fundamental, por 
ejemplo, puede parecer muy “especulativo”, podrá ser calificado de 
verdaderamente científico si está vinculado con otros conceptos teó- 
ricos que, a su vez, están vinculados por medio de reglas de corres- 
pondencia con conceptos observacionales, que finalmente aparecen 
en enunciados que se pueden confrontar directamente con la expe- 



Crisis del positivismo lógico 


65 


rienda. Según esta concepdón de la estructura y del modo de fun- 
cionamiento de las teorías científicas, podemos, cuando deseemos 
poner una teoría a prueba, proceder del siguiente modo: a partir de 
datos observacionales determinados que se expresan en enunciados 
exclusivamente observacionales, “remontamos” por medio de algu- 
nas reglas de correspondencia hasta una interpretación concreta de 
leyes fundamentales (que son puramente teóricas); acto seguido, se 
parte de éstas, y teniendo en cuenta la red de todas las otras le- 
yes teóricas de la “superestructura”, se hacen algunas inferencias y 
se “desciende” de nuevo, utilizando las reglas de correspondencia* 
hasta llegar a otros ejemplos concretos de enunciados observaciona- 
les (predicciones),, que finalmente corresponderán o no a lo que se 
pueda observar directamente. Si la correspondencia es efectiva, la 
teoría está confirmada; en caso contrario, está refutada. 

La concepción de los dos niveles constituyó durante mucho tiem- 
po el presupuesto central de la filosofía de la ciencia en la fase que 
hemos llamado “clásicá” —y, en cierto modo, todavía lo es para mu- 
chos autores actualmente, aunque de manera menos explícita—. Esta 
concepción fue elaborada de manera detallada y estuvo lo suficien- 
temente bien argumentada por los filósofos de la ciencia más cono- 
cidos de la época. Mencionaré sólo algunos de los textos más signifi- 
cativos: la obra de Richard B, Braithwaite (Reino Unido, 1900-1990) 
Scientific Explanation (1953) [La explicación científica], los artículos 
de Carnap “The Methodological Character of Theoretical Terms” 
(1956) [El carácter metodológico de los términos teóricos] y de Cari 
G. Hempel (Alemania, 1905-1997) “The Theoretician’s Dilemma” 
(1958) [El dilema del teórico] y, sobre todo, los tratados de Emest 
Nagel (Checoslovaquia/Estados Unidos, 1901-1985) The Structure of 
Science (1.961) [La estructura de la ciencia] y de Carnap Philosophical 
Foundations ofPkysics (1966) [Fundamentos filosóficos de la física]. 
En la voluminosa obra de Wolfgang Stegmüller, Theorie und Erfah- 
rung( 1970) [Teoría y experiencia] se desarrolla más completamente 
esta concepción. Asimismo esta obra contiene una discusión muy 
detallada de los problemas, formales y sustanciales, que dicha con- 
cepción tuvo que enfrentar. 

Esta concepción permite responder a la cuestión metodológica (y 
sintáctica) de saber cómo funcionan los conceptos teóricos en el seno 
de una disciplina científica y cómo se vinculan con la experiencia. 
Pero aún no permite responder a cuestiones más profundas, de or- 
den semántico y ontológico como: /¿qué significan los conceptos teó- 
ricos? ¿A qué se refieren (suponiendo que se refieren a algo)? ¿Las 



66 El desarrollo moderno de la filosofía de la ciencia ( 1890-2000 ) 


entidades a las que supuestamente se refieren son de la misma na- 
turaleza que aquellas a las que refieren los términos observaciona- 
les (las de nuestra experiencia ordinaria)? ¿El término “electrón”, 
por ejemplo, tiene una ontosemántica completamente análoga a la 
del término “aguja”? Éstas no son cuestiones banales; sea cual sea 
la respuesta, tendrán consecuencias decisivas para la filosofía de la 
ciencia o la filosofía misma en general —para nuestra concepción 
del mundo—; ¿existen los electrories y los campos electromagnéticos 
de la misma manera que existen las agujas o las mesas? Lo que co- 
rrientemente se ha llamado “el problema de los términos teóricos” 
se convirtió así en el problema central de la filosofía de la ciencia en 
su fase clásica e incluso después de ella. 

La gran mayoría de filósofos de la ciencia de la fase clásica que 
tenían cierta tendencia al empirismo tuvieron, además, una tenden- 
cia a privilegiar los conceptos observacionales desde el punto de 
vista semántico y ontológico. Incluso después del “rescate a medias” 
del empirismo realizado gracias a la articulación de los términos 
teóricos con los observacionales propuesta por la concepción de 
los dos niveles, estos filósofos continuaron considerando los con- 
ceptos teóricos con desconfianza —su sentido no era claro (excepto 
por el hecho de que funcionan estupendamente bien para hacer 
predicciones mediante las teorías que los contienen)—. Se planteó, 
entonces, la siguiente cuestión: ¿hay que suponer necesariamente 
que los conceptos teóricos refieren a algo real? ¿Son verdaderamen- 
te ineludibles en la investigación científica? ¿Es concebible (incluso 
deseable) una ciencia sin estos conceptos tan molestos? De esta po- 
sibilidad nació el proyecto de eliminar los términos teóricos (que no 
equivale a definirlos o a reducirlos). 

Para evitar cualquier malentendido, hay que entender bien cuál 
era el objetivo del proyecto. No tenía una finalidad práctica , no se 
trataba de recomendar a los físicos evitar hablar de electrones y 
de campos electromagnéticos. El objetivo era, en primer lugar, se- 
mántico e, indirectamente, epistemológico y ontológico. Se querían 
explorar las posibilidades de reconstruir formalmente el discurso 
científico de manera tal que no fuera necesario presuponer que los 
términos teóricos se refieren a algo. Se sugirieron varias propuestas 
para acometer tal objetivo, y fue sin duda el método Ramsey el más 
extendido entre los filósofos de la fase clásica. Dicho método consis- 
te en reconstruir las teorías científicas reinterpretando los términos 
teóricos que en ellas figuran simplemente coi^io variables sin un sig- 
nificado particular. 



Crisis del positivismo lógico 


67 


Frank P. Ramsey (Reino Unido, 1903-1930) se interesó básica- 
mente por cuestiones de lógica y fundamentos de la matemática y 
de la probabilidad. Sus contribuciones en estos temas son notables. 
Sin embargo, en un breve artículo titulado “Theories”, publicado en 
The Foundations of Mathematics and Other Logical Essays (1931) [Los 
fundamentos de las matemáticas y otros ensayos lógicos], obra que 
reúne sus escritos, se ocupa del problema de los términos teóricos 
( avantla lettré) y llega a una conclusión muy original. En pleno apo- 
geo del positivismo lógico, comprende que el problema no consiste 
en saber si los conceptos teóricos son definibles en función de tér- 
minos observacionales, sino más bien si es necesario suponer que 
tienen un significado particular. Según Ramsey, no es necesario, pu- 
diendo concebirlos como variables cuantificadas existencialmente, 
y si rescribimos la teoría con estas variables (aunque preservando 
la estructura lógica original de la teoría), tendremos exactamente 
las mismas consecuencias observacionales que antes; y puesto que 
son solamente estas consecuencias las que nos interesan para ad- 
quirir conocimientos sobre el mundo de la experiencia, en este senti- 
do se puede afirmar que podemos “eliminar” los términos teóricos. 
El argumento es. un poco técnico, pero intentaré hacer esta idea 
central tan comprensible como sea posible con un ejemplo muy 
simple. 

Supongamos que tenemos una teoría física, por ejemplo, la me- 
cánica newtoniana, con dos leyes fundamentales, el segundo prin- 
cipio (“/ = m • a”) y el principio de acción y reacción, donde los 
términos teóricos son evidentemente la fuerza / y la masa m, mien- 
tras que la aceleración a, o más bien los términos más básicos que 
definen la aceleración, a saber, la posición y el tiempo, son observa- 
cionales. Además de enunciados teóricos, tenemos enunciados pu- 
ramente observacionales tales como: “Si uno sitúa los cuerpos c\ y 
c 2 en un sistema aislado, cqse mueve hacia c 2 con una aceleración 
a\ mientras c 2 se mueve hacia C\ con una aceleración a 2 Supon- 
gamos que se puede derivar este último enunciado observacional 
de los principios teóricos (más las reglas de correspondencia, si es 
necesario) atribuyendo algunos valores determinados a los térmi- 
nos fy m. La tesis dé Ramsey es que no es necesario suponer que 
/y m tengan un significado concreto; podemos reemplazarlas por 
variables X e Y y afirmar: “existen ¡X e Y tales que, si X e Y están en 
relación con la posición y el tiempo para dos cuerpos C\ y c 2 de la 
manera prescrita por las fórmulas llamadas “segundo principio” y 
“principio de acción y reacción” (donde obviamente “/’ y “ m ” son 



68 El desarrollo moderno de la filosofía de la ciencia (1890-2000) 


ahora reemplazadas por ‘T e “F’) s eutonces podemos obtener el 
enunciado puramente observacional precedente”, i 

De manera general, consideremos un conjunto de enunciados pu- 
ramente teóricos Ti,..., T m , donde aparecen los términos teóricos 
h,..., t n , un conjunto de reglas de correspondencia t#i,. . . , Rp , don- 
de aparecen algunos términos teóricos y un conjuntó de enunciados 
puramente observacionales Ox,. v , 0 qi con términos observaciona- 
les 0 i,. . . , o r , (algunos de estos jStimos aparecen también en las re- 
glas de correspondencia). Supongamos que podemos derivar de la 
conjunción: 

I 

T l 8c...8cT m 8cR l 8c...8cR p 8c0 1 8c...8cO q 

un nuevo enunciado observacional O* (una predicción, por ejem- 
plo). Entonces, se puede derivar el mismo enunciado 0* si reempla- 
zamos los términos teóricos en los enunciados teóricos y las reglas 
de correspondencia por variables x\,. . . , x n , si se los cuantifíca exis- 
tencialmente y si se reescribe la conjunción precedente de la manera 
siguiente: 

j 

3*i,. • • i %n (Ti [x\,. . . , Xtj] 8c, . . 8c T m [#i,. . • , 8c 

• • j • • 8c Rp [jci,* . * , ¿Cft] 8c 0\ 8c . . . 8c Oq)s 

donde “3” es el símbolo para el cuantificador existencial y las expre- 
siones . ,x n ]” significan que, en cada enunciado correspon- 

diente, los términos teóricos originales ¿i,. t n , han sido reem- 
plazados por estas variables sin significado concreto. Esta fórmula 
cuantificáda existencialmente representa lo que se llama “el enun- 
ciado Ramsey” de una teoría. El teorema de Ramsey afirma que to- 
do enunciado observacional O* derivable de la teoría original “Ti 
8c...8cT m 8cRi8c...8cRp8cOi 8c. .,8c 0 q ” es igualmente derivable 
del enunciado Ramsey y recíprocamente. Las dos formulaciones de 
la teoría son, pues, observacionalmente (si bien no lógicamente) equi- 
valentes. En su artículo original, Ramsey no dio más que un esbozo 
de la prueba de su teorema. El lector puede encontrar la demostra- 
ción rigurosa en el libro de Stegmüller antes citado. 

Lo que muestra el teorema de, Ramsey es que, si nos interesamos 
solamente por las consecuencias observacionales verificables de una 
teoría cualquiera, no hace falta preocuparse por el significado de 
sus conceptos teóricos, ni siquiera por saber si tienen un significa- 
do cualquiera que éste sea. En el ejemplo precedente, podríamos 



Crisis del positivismo, lógico 


69 


reemplazar los términos “fuerza” y “iñ&sa” por “bla-bla” y “toc-toc” y 
obtendríamos exactamente los mismofc resultados observacionales. 
Esto quiere decir que el significado de los términos teóricos es pura- 
mente contextual : está dado exclusivamente por las relaciones que tie- 
nen entre sí los símbolos en las fórmulas qué expresan leyes teóricas, 
conjuntamente con los términos observacionales. No hay nada más 
que saber acerca de ellos. En este sentido , pueden ser “eliminados”. 

El método Ramsey tiene, sin embargo, algunas limitaciones. No 
da cuenta del hecho de que el mismo término teórico puede apare- 
cer en teorías diferentes, ni de que nuevas leyes teóricas que conten- 
gan los mismos términos teóricos puedan aparecer en una misma 
teoría en el curso de su evolución, ni de que, muy a menudo, las 
leyes teóricas con sus conceptos teóricos sean utilizadas para justi- 
ficar enunciados observacionales de una manera no deductiva (por 
inducción, por ejemplo, o por razonamiento estadístico). Pero, fue- 
ra de estas limitaciones (que no son menospreciables),! el método 
de Ramsey da una respuesta sólida al problema de los términos teó- 
ricos —si uno presupone, obviamente, que hay una distinción neta 
entre conceptos .teóricos y conceptos observacionales, y que todo 
aquello que interesa a las ciencias empíricas es un incremento de 
nuestros conocimientos expresables en enunciados verificables por 
la experiencia—. 

En el momento de su publicación, el artículo de Ramsey pasó 
casi desapercibido. La muerte prematura de su autor contribuyó, 
sin duda, a ello, pero también el hecho de que su propuesta no 
se integraba fácilmente con las discusiones del positivismo lógico. 
Fue solamente en los años cincuenta qué Braithwaite (viejo amigo 
de Ramsey) “resucita” sus ideas y mueátra su importancia a la co- 
munidad de filósofos de la ciencia. Hempel, Carnap, Stegmüller y 
numerosos autores de la fase clásica las retomaron en sus trabajos. 
Asociado a la concepción de los dos niveles, el método dé Ramsey 
parece proporcionar la respuesta última a las cuestiones más esen- 
ciales sobre la naturaleza de los conceptos teóricos, la estructura de 
las teorías científicas y su relación con la experiencia. 

‘ Este método tiene, como el lector puede sospechar, un “sabor ins- 
trumentalista” en el sentido duhemiano. Concibe los términos teóri- 
cos como simples instrumentos simbólicos útiles que nos permiten 
hacer predicciones observacionales. No tienen ningún “valor en sí”; 
no nos muestran “la cara oculta de la realidad”. Evidentemente, esta 
interpretación no puede satisfacer al filósofo de tendencia realista: 
éste quisiera garantizar que los términos teóricos se refieren a co- 



70 El desarrollo moderno de la filosofía de la ciencia (1890-2000) 


sas reales, aunque inaccesibles a nuestra experiencia sensorial El 
problema, sin embargo, es saber cómo dar esta garantía. El filósofo 
instrumentalista replica que la única garantía que se puede ofrecer 
de la pertinencia de los términos teóricos es que aparecen en una 
teoría que funciona empíricamente bien; esto queda garantizado por 
el enunciado Ramsey de esta teoría, en el que los términos teóricos 
no designan nada en especial. La controversia entre epistemólogos 
realistas e instrumentalistas sobré la naturaleza de los términos teó- 
ricos continúa hasta nuestros días. 

5. El ataque contra la distinción analítico/sintético y la tesis 
sobre la subdeterminación 

El tercer pilar del positivismo lógico, como hemos visto, es el pos- 
tulado según el cual se tiene que poder establecer úna distinción 
nítida entre enunciados analíticos (los que son verdaderos o falsos 
sólo en virtud de su forma lógica) y sintéticos (los que son verda- 
deros o falsos en virtud no sólo de su forma lógica, sino también 
por su contenido empírico). Comúnmente se admite que esta distin- 
ción es acaso muy difícil, casi imposible de establecer en el lenguaje 
ordinario por su carácter vago y ambiguo; pero, por medio de una 
reconstrucción bien lograda del lenguaje científico, debe ser posi- 
ble determinar, para una teoría científica cualquiera, qué partes son 
puramente analíticas (y, por tanto, a priori ) y qué partes son sintéti- 
cas (y, por tanto, empíricas). Si en una teoría científica encontramos 
enunciados que no se dejan asignar claramente a ninguna de estas 
categorías, entonces la teoría contiene elementos metafíisicos que hay 
que eliminar. 

La distinción tajante entre lo analítico y lo sintético tiene sus raí- 
ces en filósofos clásicos, como Leibniz, Hume y, sobre todo, Kant, 
Sin embargo, en la filosofía de la ciencia del siglo XX, esta distin- 
ción pretende liberarse de presupuestos metafísicos más o menos 
dudosos y focalizarse en el lenguaje de la ciencia (es decir, en el 
lenguaje de las teorías científicas bien construidas). Detrás de esta 
distinción, se encuentra una fuerte intuición metodológica que pa- 
rece irrebatible: hay dos y sólo dos maneras de “hacer ciencia” —o 
bien se manipulan símbolos siguiendo reglas formales precisas con 
el fin de demostrar teoremas que no tienen necesariamente que ver 
con la realidad empírica (lo que hacen los lógicos y los matemáti- 
cos), o bien se hacen observaciones, experimentos de laboratorio, 
manipulaciones técnicas con aparatos y se constata algo sobre la 
realidad (es lo que hacen los físicos, biólogos, psicólogos, los cien- 



Crisis del positivismo lógico 


71 


tíficos empíricos en general)—. Esta distinción metodológica intuiti- 
va corresponde a una nítida distinción disciplinaria: de un lado las 
ciencias formales (lógica y matemática), del otro las ciencias empí- 
ricas (física, biología, psicología, etc.). En el resto de los casos, se 
trata de concepciones precientíficas, seudocientíficas o metafísicas 
que deben ser superadas. 

Partiendo de esta intuición metodológica, el problema que se 
plantea ahora es el de establecer un criterio preciso de analitici - 
dad , pudiendo ser definido el concepto de enunciado sintético como 
aquel que tiene significado y no es analítico. Para establecer este cri- 
terio, las leyes de la lógica son las que parecen imponerse de forma 
inmediata. Parece evidente que las verdades de la lógica son del to- 
do independientes de lo que pasa en el mundo real. No necesitamos 
hacer ninguna observación o tener experiencia para convencemos 
de que el enunciado “Llueve o no llueve” es siempre verdadero; 
es verdadero simplemente en virtud de las leyes de la lógica que 
determinan el uso de los operadores lógicos conocidos, como la 
disyunción (“o”) o la negación (“no”). Las verdades (y falsedades) 
lógicas serían, pues, casos paradigmáticos de enunciados analíticos. 
La cuestión más importante aquí es, sin embargo, saber si además 
de los enunciados puramente lógicos, existen también otros tipos 
de enunciados analíticos. ¿Qué hacer, por ejemplo, con los enun- 
ciados matemáticos? No parecen depender de nuestra experiencia; 
por tanto, según los postulados del positivismo lógico, deberían ser 
considerados como analíticos. Esto no plantearía ningún problema 
si, como estaban convencidos los filósofos de la ciencia del perio- 
do de entreguerras, el programa logicistá propagado por Frege y 
Russell de reducir toda la matemática a la lógica fuese viable. Sin 
embargo, las dificultades inherentes al logicismo se hicieron cada 
vez más patentes con el curso del tiempo y, a partir de los años 
cuarenta, nadie cree ya verdaderamente en él. Se puede aceptar que 
todas las matemáticas sean reducibles a la teoría de conjuntos, pero 
no que la teoría de conjuntos sea reducible a la lógica . 5 

Por tanto, si queremos considerar los enunciados de las matemá- 
ticas como enunciados analíticos, hay que buscar algo más que el 
criterio de logicidad. El problema es peor aún: existen numerosos 
enunciados que quisiéramos intuitivamente admitir como analíticos, 

5 La discusión del programa logicistá y las razones de su derrumbe, aun cuando 
I : .esto representara un factor indirecto de crisis para el positivismo lógico, escapan 
¡ completamente al marco temático de este libro: se trata de una cuestión muy com- 
pleja de filosofía de las matemáticas. 



72 El desarrollo moderno de la filosofía de la ciencia (1890-2000) 


pero que no son enunciados puramente lógicos o matemáticos. Con- 
sideremos el ejemplo: “Si ayer era lunes, entonces mañana será miér- 
coles.” No hay necesidad de recurrir a la experiencia ni saber qué 
día es para convencerse de que el enunciado es verdadero. Pero éste 
ya no es una verdad lógica ni matemática. Se dirá que es verdadero 
en virtud de una suerte de convención de la lengua española; pero, 
¿cuál es el criterio preciso de “convención” de una lengua natural? 
He aquí otro ejemplo problemátidó: muchos filósofos quisieran con- 
tar el enunciado “Si veo una mancha enteramente roja, entonces esa 
mancha no es verde” entre los enunciados analíticos; pero no es una 
verdad lógica, ni una verdad matemática, tampoco una convención, 
“gramatical”. Los ejemplos podrían multiplicarse. 

Conscientes de la importancia de la noción de analiticidad para 
establecer la semántica de las ciencias sobre fundamentos riguro- 
sos, varios filósofos de la época que consideramos, en primer lugar 
Carnap, intentaron establecer el criterio general requerido, de una 
manera a la vez intuitivamente aceptable y formalmente correcta. En 
este contexto W.V.O, Quine (Estados Unidos, 1908-2000) publica en 
1951 un artículo “demoledor” que tuvo una enorme repercusión y 
se convirtió en un clásico de la filosofía analítica en; general: “Los 
dos dogmas del empirismo.” 6 Cierto, Quine no es un filósofo de 
la ciencia stricto sensu ; es más conocido como lógico) y filósofo del 
lenguaje, y los argumentos que desarrolla en su artículo pertene- 
cen principalmente al análisis lógico del lenguaje. Sin embargo, su 
crítica de la noción de analiticidad, que es el tema central, es igual- 
mente pertinente para la filosofía de la ciencia en la medida que 
esta noción era también una de las preocupaciones principales de 
la filosofía de la ciencia de la época. 

Los dos “dogmas” a los que Quine se refiere en el título de su 
artículo son la distinción nítida entre enunciados analíticos y sintéti- 
cos así como el reduccionismo. 7 Ya hemos tratado antes las dificul- 
tades del reduccionismo. En el momento en que Quine publica su 
artículo estas críticas era bien conocidas. Por este motivo la mayor 
parte de su texto concierne a la cuestión de la analiticidad, si bien 
es cierto que, en las últimas páginas, Quine intenta mostrar —en 

6 El artículo fue publicado primero en la Philosophical Review y dos años más 
tarde se incluyó en un famoso libro de artículos de Quine: Frorrv a Logical Point of 
View (existe traducción al castellano). 

7 Es un poco injusto calificar estos dos principios de “dogmas”, pues Camap y los 
otros defensores de la analiticidad y el reduccionismo no los habían presentado ja- 
más como verdades absolutas e indiscutibles, y tomaron inmediatamente las críticas 
de Quine muy en serio. Es preferible hablar de “postulados”. 



Crisis del positivismo lógico 


73 


f una argumentación un tanto rápida— que la idea de analiticidad y el 
reduccionismo están íntimamente ligadas. 

En la primera parte del texto, Quine pasa revista a las distintas 
propuestas hechas hasta entonces para definir el criterio de anali- 
ticidad (por medio de las nociones de. "significado”, "verdadero en 
todos los mundos posibles”, “sinonimia” y, finalmente, la noción más 
formal de “regla semántica” que Carnap formuló), para mostrar que 
todas presuponen la misma noción de analiticidad que se quería 
definir. Todas estas propuestas son circulares y, por tanto, jinacepta- 
bles. Habría un medio de escapar a esta circularidad y sería apelar 
a un criterio verificacionista (lo que para Quine significa “reduc- 
cionista” —una identificación que es problemática— ) del significado 
de los enunciados. En efecto, podríamos intentar construir nuestras 
intuiciones estipulando que un enunciado es analítico si y sólo si se 
verifica sea cual sea el contenido de nuestra experiencia. Esto presu- 
pondría, no obstante, que pudiéramos establecer el significado de 
cada enunciado particular confrontándolo con nuestras experien- 
cias sensoriales; si se comprueba su independencia de toda verifica- 
ción, entonces significa que es analítico. Mas es en este punto de la 
discusión que la doctrina holista de Quine (retomada explícitamen- 
te de Duhem) entra en acción: es contrario a la práctica auténtica 
de la ciencia tomar cada enunciado aisladamente para ver si puede 
confrontarse con la experiencia. Es la ciencia en su totalidad lo que 
se confronta con los datos de la experiencia. Cuando estos últimos . 
nos hacen constatar que algo no funciona en nuestro sistema de 
enunciados (nuestra teoría), siempre existen varias posibilidades de 
revisión en el corpus científico, pudiendo abandonarse, si es nece- 
sario, incluso los enunciados que se consideran “más analíticos” (los 
de la lógica, por ejemplo). Quine da un ejemplo de esta posibilidad 
extrema: la propuesta de ciertos filósofos de la mecánica cuántica 
de abandonar el principio puramente lógico del “tercero excluido” 
y de utilizar una lógica llamada "trivalente” (donde, además de la 
verdad y la falsedad, los enunciados pueden tener un tercer valor 
de verdad, la “indeterminación”). 

Sin embargo, hay que señalar que el único ejemplo de revisión 
que Quine da de un principio considerado claramente analítico es 
uno que proviene de una interpretación particular de la mecánica 
cuántica; se trata, además, de una proposición que está lejos de ser 
unánimemente aceptada por los filósofos y los científicos que se ocu- 
pan de los fundamentos de la mecánica cuántica. Lo que es más, se- 
ría difícil encontrar en la historia de la ciencia otro ejemplo de aban- 



74 El desarrollo moderno de la filosofía de la ciencia ( 1890-2000) 


dono de un principio lógico en razón de consideraciones empíricas. 
Ciertamente, los físicos (u otros científicos empíricos) abandonan a 
veces la utilización de una teoría matemática que había prestado 
buenos servicios en favor de otra teoría matemática, que se juzga 
más apropiada a los propósitos de la física. El ejemplo histórico más 
significativo es, sin duda, el reemplazo de la geometría euclídea por 
la geometría riemanniana en la teoría de la relatividad general. No 
obstante, este género de ejemplos no implica que una teoría de las 
matemáticas puras no sea “analítica” en un sentido o en otro, más 
bien implica que no es útil, o no tanto como se creía, para fines 
empíricos particulares. Para establecer una analogía por medio de 
un ejemplo menos abstracto: el hecho de que una regla gramatical 
particular sea propia del español y no del inglés no excluye automá- 
ticamente su carácter supuestamente analítico. 

Probablemente a causa de su carácter un poco más generalizador 
(y no siempre absolutamente riguroso), los argumentos de Quine 
tuvieron menor repercusión en la filosofía de la ciencia que en la 
filosofía del lenguaje. Se reconoció que Quine había formulado un 
desafío muy importante a la noción de analiticidad y, sobre todo, 
a la idea de definirla rigurosamente, pero la mayor parte de los fi- 
lósofos posteriores continuó operando con la idea intuitiva de que 
hacer lógica o matemáticas era una cosa, y hacer investigación em- 
pírica, otra muy distinta. Es de esta manera, más modesta o un poco 
“vergonzosa”, que los filósofos de la ciencia del periodo clásico, e in- 
cluso posterior, continúan presuponiendo en sus análisis de las teo- 
rías científicas que había que distinguir un componente puramente 
lógico-matemático (“analítico”, si uno quiere) y un componente ver- 
daderamente empírico (“sintético”), siendo, a su vez, constituido el 
segundo por una parte teórica y una parte observacional. 

Entre las tesis que Quine sostuvo, no es su rechazo absoluto de 
alguna distinción entre elementos analíticos y elementos sintéticos 
en las teorías científicas y su holismo radical (que, por otra parte, 
atenuó bastante en los años subsiguientes) las que más han influido 
en la mayoría de los filósofos de la ciencia posteriores; es otra la 
tesis que se ha convertido casi en lugar común de la filosofía de la 
ciencia actual: la llamada tesis de la “subdeterminación de la teo- 
ría por la experiencia”. Parece que Quine considera que esta tesis 
está fundada sobre el holismo y sobre el rechazo de la distinción 
anahtico/sintético; pero se pueden dar argumentos a favor de esta 
subdeterminación (e incluso ejemplos históricos concretos) que son 
independientes de otros postulados de Quine. Hemos mencionado 



Crisis del positivismo lógico 


75 


, ya este aspecto de las teorías científicas al discutir el convencionalis- 
mo de Poincaré, que es un precursor de Quine (véase el capítulo 2, 
p. 24). 

Al final de su artículo sobre los “dos dogmas del empirismo”, 
Quine sugiere ya la idea de la subdeterminación; no obstante, pre- 
senta mucho más tarde, en 1975, una argumentación sistemática en 
otro artículo publicado en la revista Erkenntnis e intitulado “Sobre 
los sistemas del mundo empíricamente equivalentes”. Quine cons- 
tata en él que, para un dominio de la experiencia particular que 
queremos tratar teóricamente, podemos construir siempre al me- 
nos dos teorías diferentes, lógicamente incompatibles, pero que son 
igualmente adecuadas al dominio de la experiencia, en el sentido 
de que las dos teorías permiten dar buenas explicaciones y hacer 
predicciones igualmente verificables del material empírico. La elec- 
ción entre una y otra no puede ser fundada más que sobre criterios 
distintos al de la adecuación a la experiencia. La razón de esta situa- 
ción de subdeterminacíón teórica es, a su vez, un hecho estructural: 
las teorías (al menos en las disciplinas algo avanzadas) son siempre 
conceptualmente más ricas que el dominio de la experiencia al que 
se aplican en un momento determinado. Las teorías tienen un “valor 
agregado” de conceptos y de principios fuera de la experiencia in- 
mediata. Por tanto, esta última no puede decidir por sí misma cuál 
es la “buena teoría”. Hay que recurrir a otros criterios, como por 
ejemplo, criterios de economía conceptual, elegancia formal, com- 
patibilidad con otras teorías científicas, etc. Pero no hay que esperar 
que haya una especie de “algoritmo de decisión” que elimíne todas 
las teorías salvo una. Probablemente la idea de la subdeterminación 
es la que representa la contribución más notable de Quine a la filo- 
sofía de la ciencia (aun cuando, como hemos visto, Poincaré la había 
sugerido e, implícitamente, también Duhem). Hoy en día, la tesis de 
la subdeterminación de las teorías por la experiencia es aceptada 
por la gran mayoría de los filósofos de la ciencia. 

6. La estructura de la explicación científica, 

Paralelamente al desarrollo de la concepción de dos niveles entre la 
teoría y la experiencia, otra cuestión ocupa una gran parte de los es- 
fuerzos en filosofía de la ciencia en la fase que consideramos: la de la 
estructura de las explicaciones científicas. Los dos temas son, desde un 
punto de vista estrictamente lógico, independientes el uno del otro; 
no obstante, podemos intentar establecer cierta correlación entre 
ellos. Los positivistas lógicos y sus predecesores de la fase de “ger- 



76 El desarrollo Moderno de la filosofía de la ciencia ( 1890-2000) 


minación” mostraron poto interés por el análisis de la explicación 
científica, Duhem sostuvó que la tarea de la ciencia no consiste en la 
explicación de algo, sitio riíás bien en “dar cuenta” de los fenómenos 
observados —esto es, segúrl él, clasificarlos, predecirlos, controlarlos 
y no buscar las “causas pro&indas” que los explican, lo que equivale 
a una ilusión metafísica—, Párece que la gran mayoría de los autores 
de la fase de eclosión de nhestra (disciplina compartían este pensa- 
miento, al menos impKc i t ámente. 

Ahora bien, una vez que se articula una concepción de la estruc- 
tura y del funcionamiento de las teorías científicas más flexible que 
la del positivismo lógico, una visión que abandona el reduccionismo 
y el verificacionismo, se tiene más libertad para regresar a los temas 
que se dejaron de lado, y que las generaciones precedentes tilda- 
ron de “metafísicos”. En 1948, con el cambio de “atmósfera” que 
acabamos de constatar, Cari G. Hempel y Paul Oppenheim (Ale- 
mania, 1885-1977) publican un artículo más bien breve, “Studies 
in the Logic of Explanation”, que haría época, sobre la noción de 
explicación científica y las condiciones que deben satisfacerse para 
poder hablar de una auténtica explicación. Durante las décadas sub- 
siguientes, este, artículo tendría una enorme repercusión, no sola- 
mente sobre la comunidad de filósofos de la ciencia de la época 
que aquí nos ocupa, sino también sable un publicó bastante más 
amplio. Gracias a la “explicación de la explicación” propuesta por 
Hempel y Oppenheim, se terminó por reconocer que la explicación 
tanto de fenómenos empíricos particulares a partir de leyes como 
de leyes científicas a partir de teorías és una de las finalidades in- 
discutibles de la ciencia, que no tiene, además, nada de misterioso. 
Cuando intentamos explicar un fenómeno particular “inesperado” o 
una regularidad general, el objetivo que se persigue es perfectamen- 
te racional: lo que intentamos hacer es encontrar un buen argumento 
que justifique el enunciado que expresa el fenómeno o regularidad 
en cuestión. En este primer ensayo de Hempel y Oppenheim, una 
buena explicación científica no es otra cosa que un argumento de- 
ductivo, gracias al cual, partiendo de premisas determinadas que 
habíamos aceptado previamente (lo que se llama el explanans), dedu- 
cimos rigurosamente, siguiendo las leyes de la lógica, el enunciado 
que expresa aquello que queríamos explicar (el explanandum). 

Hempel y Oppenheim distinguen dos situaciones ¡posibles: la ex- 
plicación de un hecho particular y la explicación de una regularidad 
más o menos general, es decir, de una ley de la naturaleza. En el 
primer caso, las premisas se componen de dos partes: primeramen- 



Crisis del positivismo lógico 


77 


te, una o más leyes científicas aceptadas, luego algunos enunciados 
sobre hechos particulares, que constituyen las condiciones iniciales 
de lo que queremos demostrar. Por ejemplo, si queremos explicar 
por qué hubo un eclipse de Luna observable en el hemisferio norte 
la noche del 8 de noviembre de 2003, entonces utilizaremos como 
premisas del argumento las leyes de la mecánica newtoniana y las de 
la óptica geométrica, añadiéndoles enunciados particulares (las con- 
diciones iniciales) que expresen las posiciones particulares del Sol, 
la Luna y la Tierra la noche en cuestión, y a continuación podre- 
mos deducir el enunciado que expresa la observación del eclipse. 
En el segundo caso, el de la explicación de regularidades observa- 
das, nuestras premisas deberán contener sólo leyes más generales. 
Por ejemplo, si queremos explicar la ley óptica de la reflexión de 
la luz tomaremos como premisas las leyes de la óptica ondulatoria, 
que son más generales, y que permiten deducir la ley cié la reflexión 
interpretando y fijando algunos parámetros de la teoría ondulatoria. 
Así, dejando de lado algunos detalles más técnicos que hay que tener 
en cuenta en este género de argumentación, la forma lógica esencial 
de la explicación científica es extraordinariamente simple si segui- 
mos a Hempel y Oppenheim. Justamente este esquema es conocido 
a partir de entonces como “esquema H-O” o “N-D” (nomológico- 
deductivo). La tesis inicial de estos dos autores establecía que toda 
explicación pretendidamente científica debe tener esta forma: debe- 
mos ser capaces de deducir el explanandum a partir, del explanans , y 
si no somos capaces, no tendremos un caso genuino de explicación. 

Algunos años más tarde, Hempel aceptó ,que todas las explicacio- 
nes auténticamente científicas no siempre tienen la forma nomoló- 
gico-deductiva. Esto simplemente se debe á que, en varios casos, los 
científicos no tienen a su disposición leyes estrictamente generales 
que puedan figurar en las premisas de un argumento deductivo: se 
cuenta únicamente con leyes estadísticas que otorgan una alta pro- 
babilidad, pero no certeza, a una correlación entre los parámetros 
pertinentes. Esta situación es típica (auñque no exclusiva) de las ex- 
plicaciones ofrecidas en medicina (por ejemplo, cuando explicamos 
que una persona está enferma a causa del tabaquismo), pero tam- 
bién en las ciencias humanas (por ejemplo, cuando explicamos que 
alguien se ha suicidado porque sufría una grave depresión). Ya nadie 
se negaría a aceptar estas explicaciones como auténticamente cien- 
tíficas, aun cuando no sean deductivas. A lo largo de varios trabajos 
de los años sesenta Hempel propone un complemento al esquema 
N-D para contemplar estos casos: el esquema E-I (por “estadístico- 



78 El desarrollo moderno de la filosofía de la ciencia ( 1890-2000) 


inductivo”). Este esquema establece que en este tipo de explicacio- 
nes las premisas consisten en leyes estadísticas que, junto con las 
condiciones iniciales apropiadas, permiten inferir por inducción (no 
por deducción) el explanandum con una- alta probabilidad. 

Aun cuando la mayor parte de los autores de la fase clásica acepta- 
ron el núcleo esencial del programa hempeliano de reconstrucción 
de las explicaciones científicas, pronto se hizo evidente que el aná- 
lisis de Hempel adolecía de toda una serie de problemas graves, en 
parte de naturaleza lógico-formal, en parte más sustanciales. No en- 
traremos en los detalles de esta discusión, muy viva éntre los años 
1950 y 1960. Mencionemos sólo dos tipos de contraejemplos que se 
propusieron contra la concepción de Hempel: por un lado, muchos 
argumentos que intuitivamente se tienen por buenas explicaciones 
de fenómenos observados y que son aceptados en la literatura cien- 
tífica especializada parecen no satisfacer en última instancia ni las 
condiciones del esquema N-D ni del esquema E-I; por otro, estos es- 
quemas permiten declarar formalmente como buenas explicaciones 
argumentos que el buen sentido o la praxis científica nunca acepta- 
rían. Cada vez que se les ponía un presunto contraejemplo, la res- 
puesta de Hempel y sus discípulos propoma agregar restricciones o 
modificaciones particulares al esquema original; pero poco después 
nuevos contraejemplos mostraban la insuficiencia de las revisiones 
propuestas. Hacia el final de la década de los sesenta, la comunidad 
de los filósofos de la ciencia tenía la sospecha de que, aunque la 
teoría hempeliana reflejaba algunos aspectos importantes de las ex- 
plicaciones científicas, era claramente insuficiente para representar 
lo verdaderamente esencial en un proceso de explicación científica y 
que, en consecuencia, había que buscar vías completamente diferen- 
tes. Así, en los años subsiguientes, se proponen nuevos enfoques de 
la explicación científica —desarrollos que pertenecen a la última fase 
de nuestra historia de la filosofía de la ciencia— (véase el capítulo 6). 

7. La naturaleza de las leyes científicas 

A los problemas más o menos técnicos inherentes a la noción de ex- 
plicación científica propuesta por Hempel y Oppenheim, se agrega 
un problema en cierto modo “externo” al esquema N-D, pero más 
profundo aún que las otras dificultades señaladas. Según este esque- 
ma, las premisas de una buena explicación deben contener al menos 
una ley científica. (En el esquema E-I, esta ley es una ley estadística; 
pero para abreviar esta exposición, me restringiré a la considera- 
ción de leyes no estadísticas, es decir, deterministas, como lo son 



Crisis del positivismo lógico 


79 


la mayor parte de las leyes fundamentales de las ciencias naturales; 
esta restricción no cambia esencialmente nada de la exposición que 
viene a continuación.) Dar una buena explicación de un fenómeno 
observado quiere decir deducir el enunciado qué lo describe a par- 
tir no solamente de algunas condiciones iniciales particulares, sino 
también de al menos una ley, que debe agregarse a esas condiciones. 
Además, esta ley o leyes deben ser verdaderas o, al menos, estar bien 
confirmadas . Si aceptáramos leyes falsas (o leyes para las cuales no 
tenemos buenas razones para considerar verdaderas) en las premi- 
sas de nuestro argumento explicativo, entonces podríamos explicar 
cualquier cosa a partir de cualquier otra, eligiendo simplemente la 
ley que más nos convenga. Dos preguntas surgen inmediatamente: 
¿qué es una ley científica?, ¿cómo hacemos para saber si es verdadera 
o si al menos está bien confirmada? Podemos describir la primera 
pregunta como el problema de la ‘legaliformidad” ( lawlikeness ) de 
un enunciado cualquiera: se trata de determinar los criterios for- 
males que debe satisfaéer un enunciado empírico cualquiera para 
poder ser considerado una ley genuina (sea verdadera o falsa). La 
segunda pregunta corresponde al hecho de establecer criterios ade- 
cuados para la confirmación de las leyes. Los dos tipos de problema, 
que, sin duda, están íntimamente ligados, pero que conviene discutir 
separadamente, ocuparon una gran parte de la filosofía de la ciencia 
durante su fase clásica. 

La doble problemática concerniente a las leyes a la que acabamos 
de referimos es, en sí misma, importante e independiente del aná- 
lisis de la explicación científica; pero resulta evidente que tiene una 
gran incidencia en otros temas de filosofía de la ciencia —no sólo en 
la problemática de la explicación, sino también, por ejemplo, en la 
noción de teoría científica, puesto que se supone habitualmente que 
las teorías científicas consisten esencialmente en un entramado de 
leyes empíricas—. 

Comencemos por la cuestión de la legaliformidad. La intuición de 
partida es que las leyes deben ser enunciados de aplicación gene- 
ral y no sólo descripciones de un objeto o de un evento particular. 
Esto, quiere decir que, en su versión más simple concebible, tienen 
la forma lógica de un enunciado condicional umversalmente cuanti- 
ficado, es decir, la forma: 

Vx(Px — > Qx) 

Nuestro enunciado sobre los cuervos que son todos negros es un 
ejemplo modesto, pero adecuado, de ley empírica con esta forma, 



80 El desarrollo moderno de la filosofía de la ciencia (1890-2000) 


si uno reemplaza el predicado “cuervo” por el símbolo “P” y el pre- 
dicado “negro” por el símbolo “Q”. Otras leyes podrían tener una 
forma más compleja, quizá porque necesitamos más cuantificadores 
universales en lugar de uno solo, o aun porque necesitamos cuanti- 
ficadores existenciales u otras conectivas lógicas además del condi- 
cional. Pero el “núcleo duro” de la forma lógica de una ley científica 
consiste siempre en un cuantificador universal al comienzo de un 
enunciado y un condicional “en ipédio”. Pareciera que disponemos 
de una respuesta muy simple a la cuestión del criterio de legalifor- 
midad: una ley debe siempre tener como forma lógica fundamental 
la de un enunciado condicional generalizado. 

Sin embargo, se puede constatar rápidamente que esto es, en el 
mejor de los casos, una condición necesaria, pero no suficiente, de 
legaliformidad. En efecto, consideremos el siguiente ejemplo: “To- 
dos los lápices sobre la mesa de Pedro son azules.” Este enunciado 
también tiene la forma lógica u \fx(Px — > Qx)”, si reemplazamos el 
predicado “lápiz sobre la mesa de Pedro” por “P” y “azul” por 
Ahora bien, es evidente que nadie aceptaría este enunciado como 
ejemplo de una ley científica; describe una situación particular, con- 
tingente, aun pudiendo ser verdadera. Para superar esta consecuen- 
cia antiintuitiva, Camap y otros autores sugirieron, en un primer 
momento, añadir al criterio de legaliformidad de un enunciado la 
exigencia de que el enunciado en cuestión no contenga nombres 
propios (“Pedro”; por ejemplo), ni referencia alguna a una región 
determinada del espacio-tiempo (por ejemplo, el lugar ocupado por 
la mesa de Pedro). Más generalmente, podríamos requerir que una 
ley genuina no contenga referencias particulares o “específicas” a 
algunos individuos únicamente (criterio de no especificidad). El pro- 
blema de esta exigencia adicional es que muchos enunciados genera- 
lizados aceptados por la comunidad científica contienen referencias 
específicas a objetos individuales particulares y a regiones espacio- 
temporales determinadas; un ejemplo significativo es el de las leyes 
de Kepler, que contienen una referencia esencial al Sol y a una re- 
gión determinada del espacio. 

Más tarde, Camap propuso restringir el criterio dé no especifici- 
dad al caso de las leyes fundamentales de una disciplina cualquiera. 
Las leyes de Kepler no serían fundamentales, mientras que las le- 
yes de Newton, que podemos admitir como fundamentales para la 
mecánica, satisfacen el criterio de no especificidad en cuestión. Esta 
propuesta es, en principio, mucho mejor que la precedente, pero no 
resuelve todos los problemas, y esto se debe al menos a dos razo- 



Crisis del positivismo lógico 


81 


nes. En primer lugar, deja sin respuesta la diferencia entre una ley 
que no es fundamental en este sentido, pero que no deja de ser 
ley, y un enunciado general como nuestro ejemplo de la mesa de 
Pedro y sus lápices. El otro problema proviene del hecho de que, 
aun cuando el criterio de no especificidad parece plausible para las 
leyes fundamentales de la física y de la química, no lo es para las de 
otras disciplinas, como la biología o las ciencias sociales, que con- 
tienen explícita o implícitamente referencias a un objeto particular 
(la Tierra o regiones determinadas de ella) o a periodos determi- 
nados. Se podría tratar de salir del atolladero estipulando que sólo 
las ciencias físico-químicas tienen leyes verdaderamente fundamen- 
tales. Pero este “imperialismo de la física” parece un precio dema- 
siado alto, sobre todo por el estado actual de las relaciones entre 
las disciplinas científicas realmente existentes. Se propusieron luego 
otros criterios adicionales de legaliformidad más o menos técnicos 
y más o menos razonables (apelando, por ejemplo, a la noción de 
causalidad o empleando nociones de la lógica modal), pero ningu- 
na de estas propuestas, que no discutiremos aquí, se ha mostrado 
susceptible de ser el objeto de un consenso entre los filósofos de la 
ciencia. El problema de la legaliformidad ha quedado parcialmente 
abierto hasta nuestros días. 

El otro problema planteado por la noción de ley científica es el de 
las condiciones de su validez o aceptabilidad. Hemos constatado ya, 
en lo que concierne a la inducción, que no tenemos generalmente 
ninguna garantía de que un enunciado general, aun si es muy sim- 
ple como el del color negro de los cuervos, sea verdadero. Todo lo 
que podemos decir es que está corroborado o bien confirmado por 
sus casos positivos. Si hemos observado miles de cuervos negros y 
ninguno de otro color, nuestra ley “Todos los cuervos son negros” 
pasará a ser aceptable por estar bien confirmada. Podremos admi- 
tirla, pues, como premisa de una explicación N-D o como paite de 
una teoría científica. Sin embargo, un célebre argumento de Nelson 
Goodman (Estados Unidos, 1906-2^00) en Fact, Fiction and Forecast 
[Hecho, ficción y pronóstico], de 1955, muestra qué la relación de 
confirmación entre casos positivos y la ley general no puede, por 
principio, llevar a una selección unívoca de la ley en cuestión. Ha- 
brá siempre otros enunciados genérales que intuitivamente nadie 
; aceptaría como leyes genuinas, pero que resultarían igualmente con- 
firmados por los mismos casos positivos. 

En efecto, supongamos que un- biólogo extravagante introdujera, 
en lugar del predicado “negro”, el nuevo predicado “blagro”, a in- 



82 El desarrollo moderno de la filosofía de la ciencia ( 1890-2000) 


terpretar de la siguiente manera: “x es blagro si x ha sido observado 
y se ha constatado que es negro, o bien si x no ha sido observa- 
do y es blanco”, y supongamos que nuestro biólogo extravagante 
propusiera la siguiente “ley de la naturaleza”: “Todos los cuervos 
son blagros.” Enseguida nos damos cuenta de que todos los casos 
positivos de la ley “Todos los cuervos son negros” (es decir, todos los 
cuervos observados hasta ahora que.son evidentemente negros) son 
también casos positivos de la ley “Todos los cuervos son blagros”; lo 
que es una consecuencia inmediata del significado dado a la nueva 
palabra “blagro”. Por consiguiente, la segunda “ley” está tan bien 
confirmada como la primera. Pero las dos leyes no pueden ser, evi- 
dentemente, verdaderas a la vez; permiten hacer predicciones muy 
diferentes: la primera predice que los cuervos que examinaremos en 
el futuro son tan negros como los cuervos observados en el pasado, 
mientras que la segunda predice que los cuervos futuros serán blan- 
cos. ¿Cuál de las dos escoger? Ni el criterio de la forma lógica de 
las leyes ni el de la buena confirmación nos ayudan a resolver esta 
cuestión. Desde un punto de vista estrictamente lógico (sintáctico y 
semántico), los dos enunciados son igualmente respetables. 

Seguramente, a la paradoja de Goodman se podría responder 
que un predicado del tipo “blagro” (Goodman mismo puso otros 
ejemplos, pero que son de la misma naturaleza) es demasiado raro 
para ser tomado en serio. Sin embargo, la “rareza” no es, en prin- 
cipio, un buen criterio para resolver cuestiones filosóficas y meto- 
dológicas. Después de todo, los científicos modernos han introdu- 
cido términos al menos tan extraños como “blagro” en sus teorías 
(pensemos en el término “posición de un electrón cuando no es 
observado”) y nadie (o casi nadie) ha replicado nada, al respecto. 
Parece que son consideraciones más bien pragmáticas (las costum- 
bres en la construcción de teorías científicas a lo largo del tiempo) y 
no lógico-semánticas lo que nos lleva a preferir “negro” o “blanco” 
a predicados como “blagro”, Pero esta constatación, aunque per- 
fectamente válida, implica que hay un elemento irreductiblemente 
pragmático (y, de hecho, histórico) en la elección de los enunciados 
generalizados que estamos dispuestos a considerar leyes científicas. 
En todo caso, los predicados goodmanianos son aún hoy una fuente 
de irritación y perplejidad para el análisis formal del concepto de 
ley científica y de su confirmación empírica. 



5 


FASE HISTORICISTA (1960-1985) 


1. Paradigmas e inconmensurabilidad, programas y tradiciones 
de investigación 

La mayor parte de los autores de las fases de “eclosión” y “clásica” de 
nuestra disciplina, en contraste con los de la primera fase de “pre- 
formación”, muestran poco interés por el análisis de la ciencia des- 
de una perspectiva diacrónica, es decir, la perspectiva que toma en 
cuenta la dimensión histórica de las teorías científicas. Su principal 
objetivo es proponer una reconstrucción formal de las estructuras 
sincrónicas implícitas del conocimiento científico. Las cuestiones de 
la dinámica de las teorías no están totalmente ausentes de su refle- 
xión, pero son consideradas desde un punto de vista ahistórico, por 
así decirlo sub specie aeternitat$ Es principalmente el caso de Popper 
en el que encontramos la idea de una dinámica científica funda- 
da en la metodología de la falsación: el “motor” de la investigación 
científica no es otro que la tendencia a poner a prueba una teoría 
científica tantas veces como sea necesario, hasta su refutación por 
la experiencia, lo que conduce a construir una nueva teoría, que 
será refutada algún día y así indefinidamente. Esta visión de lo que 
debe ser una metodología adecuada de la ciencia no puede preten- 
der procurar un modelo efectivo de la historia de la ciencia; a lo 
más, se trata de una propuesta normativa de la forma en la cual las 
ciencias habrían tenido que evolucionar en el curso de la historia. En 
la Logik der Forschung hay pocas observaciones históricas sustancia- 
les destinadas a sostener la metodología de Popper. En este aspecto, 
su manera de proceder en el estudió filosófico de la ciencia no es 
verdaderamente diferente de la deL Círculo de Viena o de la de los 
sucesores de la fase clásica. 

Esta situación cambia radicalmente a partir de los años sesenta 
con lo que se ha dado en llamar la “revuelta historicista”: la voluntad 



84 El desarrollo moderno de la filosofía de la ciencia ( 1890-2000 ) 


de dar cuenta de la historia real de la ciencia, es decir, de construir 
modelos de cambio científico adecuados a las ciencias tal y como 
éstas se desarrollan efectivamente en el curso de su historia, pasa 
a primer plano. La perspectiva diacrónica se convierte en un tema 
central entre los filósofos de la ciencia. 

La obra capital en este cambio de perspectiva, The Structure of 
Scientific Revolutions [La estructura- de las revoluciones científicas], 
de Thomas S. Kuhn (Estados Unidos, 1922-1996) aparece en 1962. 
Ironía de la historia, el ensayo de Kuhn es publicado en una serie de 
la Enciclopedia Internacional de la Ciencia Unificada que Neurath y 
Carnap concibieron, la cual terna un perfil epistemológico comple- 
tamente diferente, es más, opuesto. . . Además de Kuhn, los autores 
más importantes de esta nueva fase son Paul K. Feyerabend, Imre 
Laicatos y, un poco más tarde, Larry Laudan. Podemos añadir otros 
dos autores que, en cierto modo, fueron sus precursores: Norwood 
R. Hanson y Stephen Toulmin. Hacia 1960, estos autores hicieron 
ya algunas críticas a la concepción clásica de la filosofía de la cien- 
cia subrayando el papel que el estudio del desarrollo histórico real 
de las ciencias debería tener en la reflexión epistemológica. Pero 
su influencia es menos importante en el desarrollo de la discusión 
ulterior. Nos restringiremos, pues, a los cuatro autores mencionados 
en primer lugar: Kuhn, Feyerabend, Lakatos y Laudan. 

Es frecuente interpretar el significado de la “revuelta historicista” 
en filosofía de la ciencia como una defensa a favor de una pers- 
pectiva diacrónica en el análisis de la ciencia. Sin embargo, es una 
interpretación demasiado restrictiva de las consecuencias epistemo- 
lógicas y metodológicas de las propuestas de estos autores. Tam- 
bién aportan una perspectiva nueva sobre la estructura sincrónica 
de las ciencias, sobre todo en lo concerniente al concepto de teoría 
científica y la relación entre teoría y experiencia. Podríamos incluso 
decir que la tesis más original de los filósofos historicistas es que no 
se puede separar estrictamente la perspectiva sincrónica de la pers- 
pectiva diacrónica en el estudio de la ciencia, ya que está en juego 
el mismo tipo de categorías epistemológicas en los dos casos. Para 
comprender debidamente este punto, hay que recordar algunos ele- 
mentos esenciales del modo en que la filosofía clásica de la ciencia 
ha concebido la dinámica de las teorías y las relaciones Ínter teóricas, 
sea en su versión camapiana o en la popperiana. 

En los dos casos, una teoría científica consiste esencialmente en 
una serie de axiomas o principios fundamentales, formulados en un 
lenguaje específico, justamente “teórico”. Las consecuencias lógicas 



Fase historicista ( 1960-1985) 


85 


de estos principios (los teoremas) son contrastados por medio de 
reglas de correspondencia más o menos implícitas con enunciados 
basé? formulados en un lenguaje observacional que, en principio, es 
semánticamente independiente de la teoría considerada. En la lec- 
tura carnapiana, si la comparación entre la teoría y la observación 
da resultados positivos, la teoría se va haciendo cada vez más proba- 
ble; en la lectura popperiana, deviene simplemente “corroborada” y 
conviene intentar de nuevo refutarla a partir de la observación. Si, 
finalmente, resulta ser falsa, debe ser inmediata y definitivamente 
abandonada —a menos que estemos dispuestos a convertimos en 
seudocientrficos intelectualmente deshonestos, desprovistos de todo 
sentido crítico—. En las dos lecturas, todo aquello a lo que la investi- 
gación empírica nos conduce en lo que concierne a una teoría dada 
es a preservarla tal cual, bien confirmada o corroborada, o a aban- 
donarla por falsa. No hay otra alternativa. Es más, en este marco de 
interpretación de la dinámica científica, no existe más que una re- 
lación interesante entré dos teorías aceptadas empíricamente —la de 
reducción : una teoría (admitida como verdadera hasta nueva orden) 
puede estar en una relación de reducción con otra teoría (igualmen- 
te admitida como verdadera hasta nueva orden), lo que equivale a 
decir que los conceptos básicos de la primera teoría pueden ser de- 
finidos en función de los conceptos básicos de la segunda, y que los 
principios fundamentales de la primera son deducibles lógicamente 
de los de la segunda—. Entonces se puede decir que la segunda teoría 
es la más general y, si uno conserva la primera en la tradición de la 
disciplina, es sólo porque resulta más fácil de entender o de aplicar, 
o por razones didácticas; pero todos los conocimientos contenidos 
en la primera teoría también están contenidos en la segunda. Es un 
progreso por “acumulación”. 

Esta visión característica de la filosofía de la ciencia clásica, en 
cuanto a la identidad de las teorías, sus relaciones con la experien- 
cia y sus eventuales relaciones con otras teorías, es lo que Kuhn y 
el resto de filósofos historicistas ponen en cuestión. Niegan pura 
y simplemente las tesis clásicas: a) una teoría no es simplemente un 
conjunto de principios; b) su relación con la experiencia es diferente 
de lo que los filósofos clásicos, inductivistas o falsacionistas habían 
vislumbrado; c) cuando una teoría^ considerada “mejor”, sucede a 
otra teoría más antigua, la relación entre las dos no es la de reduc- 
ción en el sentido que acabamos de definir. 

En 1962, Kuhn no era conocido como filósofo de la ciencia, sino 
más bien como historiador (había publicado ya una obra notable 



86 El desarrollo moderno de la filosofía de la ciencia ( 1890-2000) 


sobre la revolución copernicana): su nueva obra es recibida prime- 
ramente como una nueva contribución a la historia de la ciencia. 
Pero es, de hecho, una contribución a la filosofía de la historia de 
la ciencia o, quizá más exactamente, una contribución a la filosofía 
diacrónica de la ciencia —tema que hasta entonces había sido ignora- 
do por la mayor parte de los filósofos—. El título del libro se presta, 
además, a confusión, pues nos hace pensar que las revoluciones cien- 
tíficas son el tema principal; lo que Kuhn en realidad ofrece es un 
modelo de cambio científico en general, revolucionario o no. Ade- 
más, el modelo tiene consecuencias, implícitas más que explícitas, 
sobre nuestra concepción sincrónica de las teorías, sobre el concepto- 
de teoría científica en general y sobre las relaciones interteóricas. 
Es por esta razón que hay que calificar la concepción kuhniana de 
“teoría general del conocimiento científico” —aun cuando, aparente- 
mente, el autor mismo no fuese consciente de ello, al menos en un 
primer momento—. 

La estructura de las revoluciones científicas tuvo una enorme reper- 
cusión. en la filosofía de la ciencia ulterior. La obra (aun para aque- 
llos que no están de acuerdo con sus tesis) tuvo mucha influencia 
durante el último tercio del siglo XX y ha acarreado innumerables 
discusiones, no sólo en el círculo restringido de los filósofos de la 
ciencia, sino también entre un público más amplio. Al estar escri- 
to en un estilo muy accesible, sin demasiados detalles técnicos, se 
constata que numerosos términos usados originalmente por Kuhn 
para formular. sus tesis, tales como “cambio de paradigma”, Gestalts- 
witch , “inconmensurabilidad”, etc., pasaron a ser comunes para per- 
sonas que incluso no teman un interés particular en la filosofía de la 
ciencia. Veamos más de cerca las innovaciones aportadas por Kuhn, 
tanto en el plano diacrónico como en el sincrónico. 

Según él, el motor de la dinámica científica no es la inducción ni 
la deducción. Este motor no es “carnapiano” ni “popperiano”. No 
existe una sola forma de dinámica científica, sino dos — y ni a una 
ni la otra corresponden a los modelos inductivista o falsacionista— . 
Kuhn detecta dos tipos de fases completamente diferentes en la evo- 
lución de una disciplina científica: periodos que califica de “ciencia 
normal” y otros que califica de “ciencia revolucionaria”. (Par^ ser 
exactos, habría que añadir, aun cuando Kuhn no lo dyera explícita- 
mente, un periodo mixto y confuso de crisis entre esos periodos.) 
Los periodos de ciencia normal en una disciplina generalmente 
son bastante más largos que los revolucionarios. Aquí van algunos 
ejemplos: la astronomía ¿amada “ptolemaica” (es decir, geocéntri- 



Fase historicista (1960-1985) 


87 


. ca) desde el siglo V a.C. hasta mediados del siglo XV; la mecánica 
newtoniana desde el siglo XVII hasta comienzos del XX; la quími- 
ca daltoniana durante el siglo XIX; la genética mendeliana desde la 
Primera Guerra Mundial hasta mediados de la década de los cin- 
cuenta. En cambio, la construcción de un sistema heliocéntrico por 
parte de Copémico, de la nueva dinámica por Newton, de la teo- 
ría de la oxidación de Lavoisier, de la teoría de la relatividad por 
Einstein, corresponden a fases revolucionarias, comparativamente 
breves, ya que sólo duran algunos años. Después de un periodo de 
ciencia normal llega una crisis, que se resuelve por una revolución, a 
la cual sucede otro periodo de ciencia normal. Las estructuras y los 
contenidos de la ciencia normal y de la ciencia revolucionaria son 
completamente diferentes. Veamos en qué consisten. 

Según Kuhn, lo que caracteriza un periodo de ciencia normal es 
que se trata de una fase donde la investigación científica en una 
disciplina cualquiera es enteramente dominada por una suerte de 
estructura conceptual muy general, pero difícil de precisar, que no 
está puesta jamás en duda y que pasa sin modificaciones de una 
generación de investigadores a la siguiente. En la primera edición 
de su libro, Kuhn llama “paradigma” a esta estructura. Criticado por 
el uso excesivamente vago y equívoco de este término, propuso uno 
nuevo en la segunda edición, a saber, el de “matriz disciplinaria”, e 
intentó precisar un poco sus componentes esenciales. Volveremos a 
la descripción que da Kuhn de estos componentes. Pero casi todos 
los comentadores han continuado hablando de “paradigma” y es és- 
te el término que se ha hecho famoso. Continuaremos empleándolo, 
aun cuando pensemos, junto con Kuhn, que convendría más usar el 
de “matriz disciplinaria”. 

Kuhn habría podido emplear también el término “teoría”. Si evi- 
tó deliberadamente esta terminología no fue por afán de origina- 
lidad, sino porque conocía bien el uso que de él hacían los filóso- 
fos de la ciencia de su tiempo. Hemos visto ya que, para los filósofos 
clásicos de la ciencia, una teoría es un sistema de axiomas con sus 
consecuencias lógicas. Kuhn juzgó que este concepto era demasia- 
do restrictivo, y demasiado neutro al mismo tiempo, para designar 
el género de estructura conceptual que impera en un periodo de 
ciencia normal. Un paradigma o una matriz disciplinaria es algo 
mucho, más “fuerte”, más “dramático”, también más difícil de definir 
que una simple teoría como sistema de enunciados. Un paradigma 
es una suerte de “visión del mundo”. 



88 El desarrollo moderno de la filosofía de la ciencia (1890-2000) 


En su apéndice a la edición de 1970, donde introdujo el término 
de “matriz disciplinaria” y trató de precisarlo, Kuhn caracteriza esta 
entidad como una estructura global articulada por cuatro géneros 
de componentes ligados entre sí que constituyen en conjunto la iden- 
tidad de una tradición de investigación. Hay, en primer lugar, lo que 
llama “generalizaciones simbólicas” y que también podríamos lla- 
mar “principios esquemáticos fundamentales” o “principios-guía”. 
Entiende por tales fórmulas muy? generales que, en sí mismas, no 
tienen un contenido empírico concreto, de tal suerte que pueden 
ser fácilmente confundidas con definiciones o principios analíticos; 
pero no lo son, pues son indispensables para la investigación empí- 
rica en el sentido en que fijan el tipo de leyes empíricas concretas 
que es necesario contemplar para explicar los fenómenos. El ejem- 
plo clásico de “generalización simbólica” en el sentido kuhniano es 
el segundo principio de la mecánica de Newton, “/ = m ■ a En sí 
misma, y tomada aisladamente, esta fórmula no es ni verificable ni 
falsable, sino que sugiere la forma que debe adoptar toda ley mecáni- 
ca del movimiento para poder ser admitida y para ser confrontada 
con la experiencia. No es necesario suponer que una. “generaliza- 
ción simbólica” se exprese en forma de ecuación matemática. Puede 
expresarse también en un lenguaje “normal”, no cuantificado; po- 
dríamos, por ejemplo, interpretar el principio de variación y de se- 
lección en la teoría darwiniana de la evolución de las especies como 
una “generalización simbólica” en el sentido kuhniano. 

El segundo componente de un paradigma se compone de lo que 
Kuhn llama “modelos” de la investigación científica. ILa palabra “mo- 
delo” se emplea aquí no en el sentido de la lógica formal, sino antes 
bien en el sentido de una interpretación intuitiva o visualización del 
dominio de fenómenos que se quiere analizar y que guía la inves- 
tigación en un sentido determinado. Kuhn distingue dos clases de 
modelos. Hay unos que son simplemente analogías heurísticas , sin 
que se consideren literalmente representaciones fieles de la realidad 
estudiada; un ejemplo podría ser la visualización de un gas como 
un sistema constituido por pequeñas esferas elásticas que se mueven 
muy rápidamente y chocan entre sí; otro ejemplo, la representación 
de los fenómenos mentales como reglas de un programa de ordena- 
dor. Existen, además, modelos ontológicos : aquellos que son conside- 
rados literalmente y que fijan los “compromisos ontológicos” (para 
retomar la expresión de Quine) de investigadores en un dominio 
determinado, por ejemplo, la representación del espacio como un 
continente vacío, absoluto e infinito en la mecánica newtoniana. En 



Fase hisioricista ( 1960-1985) 


89 


todos los casos, estos dos tipos de modelos tienen por función no 
sólo guiar la investigación de una manera intuitiva, sino también de- 
cidir si la solución propuesta a un problema dado es o no aceptable. 

Un tercer componente de los paradigmas está constituido, según 
Kuhn, por los "valores normativos”.. Son criterios apológicos em- 
pleados por los investigadores para evaluar las propuestas teóricas 
planteadas o los resultados empíricos obtenidos. Puede tratarse de 
criterios internos o criterios externos a la actividad científica. En- 
tre los criterios internos se cuentan la simplicidad de las leyes pro- 
puestas, su coherencia con otras leyes o teorías, la exactitud en las 
observaciones efectuadas o la controlabilidad de los experimentos 
de laboratorio. Entre los criterios externos, se cuentan la utilidad 
social o económica de la teoría propuesta o su compatibilidad con 
concepciones ideológicas, metafísicas, religiosas aceptadas por la 
comunidad en general. Los valores que constituyen la base de un 
paradigma determinado están casi siempre implícitos; sin embargo, 
en periodos de crisis ó de “ciencia revolucionaria”, se discuten de 
forma explícita, por lo que a menudo se proponen nuevos valores. 

El último componente de los paradigmas consiste en lo que Kuhn 
llamaba “ejemplares” (exemplars). Junto con las generalizaciones sim- 
bólicas, los ejemplares constituyen la parte esencial de un paradig- 
ma, ya que constituyen su identidad propia. Paradigmas diferentes 
pueden compartir modelos o algunos valores, pero no las generali- 
zaciones simbólicas y, sobre todo, no los ejemplares. Esto constituye 
quizá la contribución más original de Kuhn al análisis de la dinámica 
de las teorías, si bien su caracterización conceptual resulta un poco 
vaga en sus escritos. La caracterización más general que se puede 
dar es la de que se trata de casos particularmente reveladores de la 
aplicación de un paradigma a un dominio de investigación deter- 
minado. Muy frecuentemente, son también los primeros ejemplos 
históricos en los cuales el paradigma mostró su eficacia y represen- 
tan casos especialmente importantes para la comunidad científica. 
Se transmiten de una generación a otra de investigadores, y los estu- 
diantes los aprenden en los libros de texto. Sirven de modelos para 
casos ulteriores. De hecho, el téraiino “paradigma” convendría me- 
jor a este componente de una matriz disciplinaria. Todos los otros 
casos de aplicaciones sucesivas de la teoría deben concebirse por 
analogía con estos ejemplares. Es el papel que tiene, por ejemplo, la 
órbita de Marte en el paradigma kepleriano o el cometa Halley en la 
mecánica newtoniana o aun los guisantes de Mendel en la genética 
clásica. 



90 El desarrollo moderno de la filosofía de la ciencia ( 1890-2000) 


Las generalizaciones simbólicas y los ejemplares, aun siendo de 
diferente naturaleza, son indis ociables en la constitución de la iden- 
tidad de un paradigma. Por un lado, las primeras, tomadas aislada- 
mente, son sólo esquemas formales sin significación empírica; ob- 
tienen esta significación justamente cuando se puede mostrar que 
son cruciales para dar cuenta de ejemplos en tanto que casos de 
aplicación de leyes. Por otro, la importancia de los ejemplares no 
es intrínseca (no es muy importaiite para la humanidad en gene- 
ral saber dónde se encontrará el cometa Halley el próximo año o 
constatar la forma de los guisantes de una generación a otra), sino 
que proviene del hecho de que muestran de una manera particu- 
larmente impresionante la eficacia de las leyes fundamentales del 
paradigma para explicar la naturaleza. Los ejemplares constituyen, 
pues, lo esencial de la base empírica de una teoría. Es por este moti- 
vo que Kuhn mismo destacó que, en su concepción, la relación entre 
generalizaciones simbólicas y ejemplares tema una función parecida 
a la de las reglas de correspondencia en la concepción clásica. 

Sobre la base de esta exposición de la noción kuhniana de para- 
digma, es fácil constatar que, contrariamente a una opinión bastante 
extendida, la teoría de Kuhn no propone solamente un análisis dia- 
crónico de las disciplinas científicas, sino también una concepción 
sincrónica válida al menos para los periodos de ciencia normal. En 
estos periodos, la unidad estructural fiindamental de una disciplina 
no es otra cosa que una matriz disciplinaria, pudiendo ésta estar 
explicitada, incluso parcialmente formalizada, en una perspectiva 
meramente sincrónica. 

Pasemos ahora a la perspectiva diacrónica. Hemos visto que, 
en un periodo de ciencia normal, la investigación está dominada 
por un paradigma que jamás se pone en duda. Se trata de una suer- 
te de dogma más o menos implícito de los investigadores, los cuales 
no se ocupan ni de falsario ni de determinar su probabilidad, pues- 
to que están convencidos de que funciona bien. El paradigma es el 
presupuesto, no el fin de la investigación. Entonces se plantea una 
pregunta: ¿qué hacen los investigadores durante el periodo de cien- 
cia normal? ¿Cuál es el objetivo de su investigación? A esta pregunta 
Kuhn responde también de una manera completamente nueva: la 
actividad de los científicos “normales” consiste en lo que él llama, 
por analogía, la “resolución de rompecabezas” ( puzzle-solving ). Se tra- 
ta de mostrar la pertinencia del paradigma cuando se lo enfrenta a 
situaciones cada vez más complejas. Por analogía con los ejemplos 
ya existentes, se contemplan nuevos casos de aplicación del paradig- 



Fase historicista ( 1960-1985 ) 


91 


ma y leyes cada vez más específicas, compatibles con los principios 
fundamentales, se construyen para dar cuenta de los casos nuevos; 
todo esto, de acuerdo siempre implícitamente con los modelos y va- 
lores constitutivos del paradigma. Su contenido tanto teórico como 
empírico se va volviendo así cada vez más amplio y articulado. 

En esta actividad de la resolución del rompecabezas que es carac- 
terística del periodo de ciencia normal surgen casos de aplicación 
pretendida que parecen ser análogos a los. ejemplares, pero que, en 
un primer momento, no dejan integrarse al paradigma. Para la me- 
todología popperiana, esto equivaldría a enfrentarse con una falsa- 
ción del paradigma. Sin embargo, Kuhn muestra, con numerosos 
ejemplos históricos apoyándole, que no hay nada de eso en la prác- 
tica científica real. Esos casos recalcitrantes son simplemente clasi- 
ficados como “anomalías” y se continúa aplicando, el paradigma en 
los otros casos esperando encontrar un día la manera de resolverlas 
por medio de algún refinamiento del paradigma. Si ese día tarda en 
llegar y el paradigma continúa funcionando bien en muchos otros 
casos, la anomalía en cuestión simplemente se olvida. Es sólo cuan- 
do las anomalías, se acumulan y, sobre todo, cuando aparecen en 
un dominio considerado muy importante, por una u otra razón, 
cuando los defensores del paradigma comienzan a hacerse pregun- 
tas sobre él. Entonces y sólo entonces, el paradigma entra en crisis 
(lo que no significa que vaya a ser abandonado). Una de las tesis 
principales de Kuhn, que va directamente en contra de la metodolo- 
gía popperiana, es que jamás se abandona un paradigma que ya ha 
dado buenos frutos si uno no lo puede reemplazar por otro. * - 

A veces, la crisis puede ser finalmente resuelta de una manera o 
de otra en el marco del paradigma aceptado. En otras ocasiones, en 
cambio, un happy end parece cada vez más improbable, una parte de 
la comunidad científica comienza a dudar seriamente del valor de 
este paradigma. Es entonces cuando puede ocurrir una revolución 
científica : una minoría de investigadores —a menudo uno solo— deci- 
de cambiar completamente de paradigma, desplazando radicalmen- 
te su punto de vista, abandonando las generalizaciones simbólicas 
precedentes y proponiendo principios nuevos e incompatibles con 
los anteriores, a veces también nuevos modelos y valores. Si mues- 
tran que el nuevo sistema conceptual es capaz de dar cuenta de las 
anomalías y convencer a sus colegas (generalmente tras acalorados 
debates), lo que antes se consideraba una anomalía más o menos 
exótica pasa a ser un ejemplar absolutamente fundamental y se ol- 
vidan los viejos ejemplares o se consideran hechos secundarios. Así 



92 El desarrollo moderno de la filosofía de la ciencia (1890-2000) 

nace un nuevo paradigma, comienza a establecerse una nueva tradi- 
ción de ciencia normal. 

Dos aspectos de la descripción lcuhniana de las revoluciones cien- 
tíficas resultaron especialmente impactantes. En primer lugar, el 
hecho ya mencionado de que una revolución científica no proviene 
en absoluto de una refutación del viejo paradigma por la experiencia, 
sino más bien de la concepción de un nuevo paradigma en compe- 
tencia. Luego, la determinación/ que Kuhn efectuó; de la relación 
entre el viejo paradigma y el nuevo; según él, no hay ninguna rela- 
ción lógica, formalizable entre ambos; el uno no puede ser reducido 
al otro ni tampoco son mutuamente contradictorios en el sentido 
lógico. La razón es simple: la reinterpretación de los ¡conceptos más 
fundamentales que propone el nuevo paradigma, que está esencial- 
mente dada por la descripción de nuevos ejemplares, es tan radical 
que no podemos decir que se refiera a la misma clase de objetos; 
hablan de cosas completamente diferentes. Ni siquiera existe la po- 
sibilidad de recurrir a un lenguaje observacional común que, en 
cuanto instancia imparcial, permita comparar los dos paradigmas. 
Retomando una tesis avanzada ya unos años antes por Hanson, y 
corrientemente descrita como la carga teórica de la observación , Kuhn 
arguye que cada paradigma tiene su propio lenguaje observacional, 
que presupone ya una toma de partido en favor de los conceptos 
que le son propios. De hecho, la noción misma de lenguaje obser- 
vacional en tanto que instancia universal de verificación —noción 
tan cara a la concepción de los dos niveles sostenida por la filosofía 
clásica de la ciencia— pierde todo su sentido. j 

Sin embargo, el viejo paradigma y el nuevo siguen teniendo una 
relación particular entre sí. Para designar esta nueva relación inter- 
teórica, Kuhn emplea el término de “inconmensurabilidad”. Dos pa- 
radigmas en competencia son inconmensurables — lo; que, por otra 
parte, no equivale a decir que son incomparables — . Desafortunada- 
mente, nunca intentó explicitar sus criterios según los cuales dos 
paradigmas inconmensurables podían ser comparados. Puesto que 
ya no es factible recurrir a descripciones “neutras” de observación, 
no resulta evidente cómo determinar la base de comparación. 

La tesis de la inconmensurabilidad entre paradigmas es uno de 
los aspectos más famosos de la concepción kuhniana y el que ha sus- 
citado las más vivas discusiones durante más de treinta años. Otro 
autor, Paul K. Feyerabend, de quien hablaremos a continuación, sos- 
tuvo una tesis parecida (con matices y argumentos un tanto diferen- 
tes) independientemente de Kuhn y casi simultáneamente. Es por 



Fase historicista (1960-1985) 


93 


esto que a esta tesis se la conoce como “tesis de Kuhn-Feyerabend”. 
Su interpretación más común es la que dice que conduce a una vi- 
sión relativista o, incluso, ir racionalista de la dinámica científica, 
al menos en lo que respecta a las grandes sacudidas reconocidas 
como “revoluciones científicas”. Sin base semántica u observacional 
común que permita comparar dos paradigmas separados por una 
revolución científica, toda decisión a favor de uno u otro de esos 
paradigmas parece reducible a una cuestión de “gusto” o, peor aún, 
a pulsiones irracionales comparables a las que son responsables de 
las luchas políticas o religiosas. En su dinámica propia, la ciencia no 
procedería en un modo sustancialmente diferente del de ideologías 
y religiones. La descripción sociopsicológica que Kuhn emplea para 
describir la situación de la comunidad científica durante un periodo 
revolucionario (con términos como “conversión”, “diálogo de sor- 
dos”, “argumentos de autoridad”, “muerte física de los partidarios 
del viejo paradigma para permitir el surgimiento del nuevo”, etc.) 
parece confirmar esta’ interpretación. Sin embargo, él siempre negó 
que propugnara una forma de relativismo o irracionalismo y, en 
sus escritos posteriores a La estructura de las revoluciones científicas, a 
veces intentó eliminar esta sospecha y mostrar que de todas formas 
se podrían encontrar buenas razones para preferir un paradigma 
a otro. Dicho esto, hay que admitir que la mayor parte de sus ad- 
miradores así como de sus detractores, continúan interpretando su 
concepción y, particularmente, la tesis de la inconmensurabilidad, 
como una forma radical de relativismo epistemológico. A partir de 
la publicación del libro de Kuhn muchos jóvenes investigadores con- 
vencidos de lo apropiado de su descripción de la dinámica científica 
dedujeron consecuencias mucho más radicales de lo que él mismo 
había previsto: habiéndose vuelto obsoleta la idea misma de una 
epistemología o de una filosofía general de la ciencia, sólo quedaría 
una especie de historia sociológica de la ciencia, donde tan sólo se 
trataría de describir la investigación científica en todos sus dominios 
como una sucesión ininterrumpida de “luchas de poder”, de “golpes 
bajos”, de “negociaciones”, de "engaños”, etc. Los enfoques conoci- 
dos con el nombre de etnometodología o Escuela de Edimburgo , 'que 
surgieron durante los años setenta y los años ochenta, son ejemplos 
de estas interpretaciones relativistas o sociologistas del “paradigma” 
kuhniano. Hacia el fin de su vida, el propio Kuhn lamentó en vano 
el giro que tomó la interpretación de sus ideas. 1 

1 Es esto lo que destaca, por ejemplo, en sus notas autobiográficas en la tercera 
parte de su obra postuma, The Road since Structure. 



94 El desarrollo moderno de la filosofía de la ciencia ( 1890-2000) 


Más aún que en la obra de Kuhn, el relativismo epistemológico 
es explícito y radical en otro autor que también forma parte de los 
orígenes de la filosofía historicista de la ciencia: Paul K. Feyerabend 
(Austria, 1924-19^9^, quien muy pronto pasó al otro lado del Atlán- 
tico. Feyerabend se formó en la tradición clásica de la filosofía de 
la ciencia. Su enfoque, aunque bastante crítico ya en sus comienzos, 
se presenta en un marco conceptual y metodológico cercano al de 
los filósofos precedentes, principalmente Popper. Su primer artícu- 
lo importante, “Das Problem der Existenz theoretischer Entitaten” 
[El problema de la existencia de las entidades teóricas], trata del 
problema clásico de los términos teóricos y critica la concepción de 
los dos niveles. En él, defiende la idea de que todos los conceptos 
que figuran en una teoría científica son, de hecho, teóricos y que 
debemos cesar de presuponer la existencia de un lenguaje observa- 
cional universal y “neutro”. Su tesis es cercana a la tesis de la carga 
teórica de los conceptos observacionales, defendida también, lo he- 
mos visto ya, por Hanson y Kuhn. Sin embargo, como buen filósofo 
analítico, su argumentación es más semántica que histórica. A con- 
tinuación, casi al mismo tiempo que la aparición del libro de Kuhn, 
en 1962, Feyerabend publicó un largo artículo sobre el problema 
de la reducción (“Explanation, Reduction, and Empiricism”), donde 
criticó la concepción clásica de la reducción como deducción. Ra- 
zona aquí desde un punto de vista semántico y metodológico más 
que histórico, aunque analiza en detalle algunos ejemplos de su- 
puestas reducciones en las ciencias físicas. Independientemente de 
Kuhn también llegó a la conclusión según la cual las teorías que 
están aparentemente en uña relación de reducción son semántica- 
mente inconmensurables, puesto que, en este género de sustitución 
de una teoría por otra, se produce un cambio radical de significado 
de los conceptos fundamentales (es la llamada tesis del radical mea - 
ning variance); a menudo los términos que utilizaron son idénticos, 
y es esto lo que nos conduce a la creencia errónea de que expresan 
los mismos conceptos. 

Los ataques contra la filosofía de la ciencia clásica y, sobre todo, 
contra la metodología popperiana, se vuelven aún más virulentos 
en los escritos posteriores de Feyerabend, el más conocido de los 
cuales, incluso fiiera del círculo de los especialistas, es Against Meth- 
od (1970) [Contra el método] . En éste propugna lo que llama “un 
anarquismo metodológico”, según el cual sería por completo nocivo 
para la ciencia y para la cultura en general querer establecer reglas 
ge?* 1 erales y explícitas de investigación. Su eslogan, que llegó a ser 



Fase historicista (1960-1985) 


95 


célebre, “ Anything goes!” ("¡Todo vale!”), resume toda su filosofía. El 
objeto de sus ataques es, en efecto, toda forma de filosofía normativa 
de la ciencia. Por esto, se convirtió en el defensor más decidido 
de una epistemología relativista, e incluso irracionalista, aunque su 
propio discurso, lleno de bromas, de sarcasmos y de provocaciones 
sea más bien “bonachón”. . . 

Feyerabend tuvo una influencia muy fuerte, primeramente en 
los medios de la “contracultura” de los años setenta, después en los 
comienzos de los “estudios sociales de la ciencia” (social studies of 
Science) de los años ochenta; pero esta influencia ha sido mucho 
más limitada en la filosofía de la ciencia, por no hablar de las cien- 
cias mismas —lo cual no es sorprendente y el mismo Feyerabend lo 
previo—. Es poco probable que quisiera que se le tomara en serio 
cuando afirmaba que lá “teoría” del vudú o la de la brujería tienen 
el mismo valor epistémico que las mejores teorías de la física con- 
temporánea . 2 Pero el problema más importante relativo a las tesis 
metodológicas de esté autor es el mismo que tienen todos los rela- 
tivistas epistémicos: llevan a un callejón sin salida. En efecto, si el 
principio “todo yale” es válido para el discurso científico, uno se 
pregunta por qué no habría de valer también para el discurso me- 
^científico; y, por consiguiente, uno no entiende lo que Feyerabend 
y sus partidarios pudieron tener en contra de Carnap, Popper y los 
demás autores de la concepción clásica.- Si es verdad que “todo vale”, 
entonces cada uno podría haber continuado fácilmente dentro de 
su género de análisis epistemológico preferido como si nada hubie- 
ra pasado —justamente lo que han hecho los filósofos de la ciencia 
después de Feyerabend. . . — 

A partir de mediados de los años sesenta, la controversia entre 
Iíuhn y Feyerabend, por un lado, y los pbpperianos por otro, se hizo 
cada vez más “viva”. Para Popper y sus discípulos, Kuhn y Feyera- 
bend proponían una visión irracionalista y dogmática de la ciencia 
que debía ser combatida por todos los medios, puesto que represen- 
taba un peligro para el futuro del bastión más sólido de la raciona- 
lidad humana, las ciencias naturales. La polémica adquirió tintes de 
combate ideológico, casi religioso, sobre todo del lado de Popper 

2 Es curioso que en sus repetidas defensas a favor de “teorías alternativas” como 
la teoría del vudú o la de la brujería, Feyerabend no menciona la teoría “creacio- 
nista”, según la cual el mundo fue creado hace sólo algunos miles de años por una 
potencia sobrenatural —“teoría” que ha sido y continúa siendo muy popular en su 
país de residencia, Estados Unidos—. Quizá este ejemplo era un tanto embarazoso 
para un intelectual “progresista” y materialista como él. . . 



96 El desarrollo moderno de la filosofía de la ciencia (1890-2000) 

mismo y de algunos de sus discípulos, mientras que Kuhn, por su 
parte, respondía a los ataques diciendo que había sido mal interpre- 
tado, y Feyerabend replicaba con sus sarcasmos habituales sobre la 
esterilidad del normativismo popperiano. i 

Un antiguo discípulo de Popper, Imre Lakatos (Hungría/Reino 
Unido, 1922-1974), que aunque de origen húngaro! emigró al Rei- 
no Unido tras la represión soviética de 1956 en Hungría, intentó 
actuar como “mediador” entre Popper y Kuhn, proponiendo una 
suerte de “falsacionismo sofisticado”, que combina la idea popperia- 
na de la falsación con algunos elementos de la descripción kuhnia- 
na de la dinámica científica, sin aceptar, sin embargo, los aspectos 
considerados más discutibles de la concepción de Kuhn, como el 
supuesto carácter dogmático de la ciencia normal o el supuesto rela- 
tivismo a que conducía la tesis de la inconmensurabilidad. Laicatos 
no pudo convencer a Popper y sus discípulos más próximos de los 
elementos positivos contenidos en el enfoque de Kuhn —al contra- 
rio, él mismo fue considerado, un traidor a la causa popperiana— ; 
pero el resultado de su intento de síntesis fue una nueva concepción 
de la estructura diacrónica de la ciencia, que implícitamente está 
más cerca de Kuhn que de Popper, pero que propone elementos de 
análisis originales y, quizá, empíricamente más adecuados que los de 
Kuhn. Se trata de la concepción que Lakatos mismo bautizó como 
“metodología de los programas de investigación científica”. Su es- 
crito más importante, donde presenta esta nueva concepción, es un 
largo ensayo titulado precisamente “La falsación y la metodología 
de los programas de investigación científica”, publicado por prime- 
ra vez en 1970. A pesar de su longitud Laicatos consideraba esta 
presentación como un esbozo. Tenía la idea de desarrollarla de una 
manera más detallada y de armarla mejor en contra de las críticas 
en una monografía más larga que se había de llamar, haciendo una 
clara referencia a la obra de Popper, The Changing Logic of Scientific 
Discovery [La lógica cambiante de la investigación científica]. Murió 
prematuramente a mediados de los años setenta, y no pudo terminar 
este proyecto. , I 

Lakatos retoma de Popper la idea según la cual el motor de la 
investigación está constituido por intentos repetidos de poner a 
prueba una concepción científica; hay que mostrar más lo que no 
funciona que lo que funciona, por un procedimiento en el que es 
irremisiblemente puesta a prueba. Sin embargo, las unidades bási- 
cas del conocimiento científico no son, como en Popper, hipótesis 
aisladas, ni tampoco teorías como conjuntos axiomáticos de hipóte- 



Fase historicista ( 1960-1985 ) 


97 


sis, sino más bien estructuras conceptuales mucho más vastas que 
normalmente duran mucho más tiempo y son caracterizadas justa- 
mente como programas de investigación. Los conflictos que surgen en 
el desarrollo de una disciplina no son conflictos entre una hipótesis 
y los hechos, sino más bien conflictos entre una teoría interpretati- 
va que constituya la base (provisional) de los hechos y una teoría 
explicativa que debe dar cuenta de esos datos. O de manera más 
precisa aún, para usar las propias palabras de Lakatos: “no es que 
nosotros propongamos una teoría y la naturaleza pueda gritar ‘NO’; 
se trata, más bien, de que proponemos un entramado de teorías y. 
la naturaleza puede gritar ‘INCONSISTENTE’.” 3 Los investigadores 
intentan, entonces, resolver este conflicto modificando algunos ele- 
mentos de esta red, pero no todos. De esta manera aparece en el 
curso de la historia una sucesión de teorías vinculadas entre sí por 
su pertenencia a un mismo programa de investigación, que posee 
desde entonces una impresionante continuidad. Esta continuidad 
está esencialmente determinada por un “núcleo duro” (hard core) 
que no cambia en el curso de las sucesivas confrontaciones. Este 
núcleo está asociado a dos tipos de reglas metodológicas esquemáti- 
cas, a las que Lakatos llama “heurística negativa” y “heurística posi- 
tiva”. La primera define los elementos del programa, que en cierto 
sentido son “intocables” —los que justamente deben formar parte 
del núcleo—; mientras que la heurística, positiva construye alrede- 
dor del núcleo un “cinturón protector” (protecting belt) constituido 
por hipótesis que sí pueden ser confrontadas con los hechos de la 
experiencia y modificadas, o incluso abandonadas, en caso de con- 
flicto. 

El resultado de la aplicación de esta doble metodología hace apa- 
recer la estructura diacrónica de una teoría científica o, más pre- 
cisamente, siguiendo la terminología de Lakatos, de un programa 
de investigación —una estructurarse compone de un núdeo duro, 
no modificable, y de una periferia cambiante—. Esta visión de la di- 
námica científica muestra una analogía bastante fuerte con la evo- 
lución de un paradigma durante un periodo de “ciencia normal”, 
según Kuhn. Los conceptos metáteóricos empleados por Lakatos y 
por Kuhn son diferentes, aunque la estructura que los dos autores 
intentan identificar es prácticamente idéntica. No obstante, existen 
también algunas diferencias significativas entre estos dos modelos. 
Seguramente la más importante es que Lakatos no lleva a cabo un 

3 1. Lakatos, The Methodology of Scientific Research Programmes , p. 45; ítrad. esp., 
p. 62. 



98 El desarrollo moderno de la filosofía de la ciencia (1890-2000) 


análisis de las revoluciones científicas y tampoco acepta la tesis de la 
inconmensurabilidad: ciertamente puede haber en una* misma dis- 
ciplina diferentes programas de investigación en competencia, pero 
pueden compararse sin problema sus respectivos méritos y sus de- 
fectos; no cabe suponer una “ruptura semántica” entre ellos. Es más, 
Lakatos considera que la descripción kuhniana de la “ciencia nor- 
mal” es excesivamente unilateral: según Kuhn, un solo paradigma 
regiría la investigación científica, 'durante un periodo determinado 
y sólo durante los breves periodos de revolución dos paradigmas 
competirían. Para Lakatos, al contrario, la situación normal es más 
bien cuando, dentro de una misma disciplina, varios programas de 
investigación entran en competencia. Y los ejemplos históricos que 
examina le dan la razón. En lugar del reemplazo casi inmediato de 
un paradigma por otro, Lakatos propone una tipología evaluativa 
de los programas de investigación en competencia: durante un pe- 
riodo determinado, un programa puede ser progresivo, mientras que 
el otro es regresivo , lo que esencialmente quiere decir que el prime- 
ro permite hacer cada vez más predicciones exitosas, en tanto que 
el otro sólo es capaz de dar explicaciones ad hoc de nuevos hechos 
observados. Sin embargo, la distinción entre programas progresivos 
y regresivos es siempre relativa y provisional: un programa que al 
principio tiene un éxito real rápidamente puede entrar en una fase 
de decadencia, mientras que otro programa que ha “pasado por un 
mal periodo”, puede “resucitar” tiempo después. 

La controversia entre Popper, Kuhn, Feyerabend y Lakatos sobre 
el tema del modelo adecuado de la dinámica de la ciencia ocupa 
buena parte de la escena de la filosofía de la ciencia a finales de 
los años sesenta y durante los setenta. Podemos resumir las carac- 
terísticas de esta controversia y las diferencias y similitudes entre 
estos autores de la siguiente manera. La voluntad dé modelizar la 
dinámica de la ciencia es común a todos ellos; sin embargo, existen 
divergencias importantes en la manera de concebir esta tarea. En 
Popper prima el punto de vista normativo y no la historia real de la 
ciencia, puesto que desea distinguir claramente entre “buena” y “ma- 
la” ciencia (en esto se acerca aun a la motivación de los positivistas 
lógicos); en cambio, el punto de vista normativo es mucho más débil 
en Lakatos, prácticamente inexistente en Kuhn y, se transforma en 
un punto de vista “antinormativo”, por así decirlo, en Feyerabend, 
con su “anarquismo metodológico”. Para estos autores, y sobre todo 
para Kuhn y Lakatos, la historia de la ciencia debe tomarse en serio; 
sus escritos están repletos de análisis muy detallados de casos histó- 



Fase historicista (1960-1985) 


99 


ricos para ilustrar sus tesis. Para ellos, no es la lógica, sino más bien 
la historiografía de la ciencia la disciplina auxiliar par excellence de la 
filosofía de la ciencia. 

Consecuencia de este cambio de perspectiva metametodológica: los 
autores más jóvenes bajo la influencia de estos pensadores tuvieron 
a continuación una tendencia a subrayar más aún la importancia de 
la historia de la ciencia para la epistemología, a veces hasta el punto 
de abandonar completamente la filosofía de la ciencia en favor de 
una historiografía pura y dura de la ciencia. Es una evolución pare- 
cida a la que caracterizó la epistemología francesa, de entreguerras. 
Ahora bien, es poco probable que los grandes protagonistas de la 
fase historicista, encabezados por Kuhn. y Lakatos, hubieran estado 
satisfechos con este giro puramente historiográfico emprendido por 
sus discípulos y continuadores. Kuhn guardó siempre un sincero res- 
peto por la filosofía sistemática de la ciencia, incluso en su versión 
"formalista”, como lo prueba, por ejemplo, su muy positiva reacción 
ante la concepción estructuralista de Sneed y Stegmüller, expresada 
en un artículo de 1976 que apareció en Erkenntnis o, más tarde, en 
una entrevista que dio poco antes de su muerte y la cual se publicó 
postumamente. 4 Lakatos reflexionó mucho, hacia el final de su vida, 
sobre la naturaleza de las relaciones entre la filosofía sistemática de 
la ciencia y la historia de la ciencia, y se le debe una célebre pa- 
ráfrasis de una frase también célebre de Kant: "La reconstrucción 
racional [de la ciencia] sin historia de la ciencia es vacía; pero la 
historia de la ciencia sin reconstrucción racional es ciega.” 5 

Otro autor, Larry Laudan (Estados Unidos, nacido en 1941), 
quien sin duda pertenece a la corriente historicista, se propuso ex- 
plícitamente evitar las trampas del relativismo. Laudan retoma las 
perspectivas abiertas por Kuhn y Lakatos, y desarrolla una verda- 
dera filosofía diacrónica de la ciencia, apoyándose en numerosos 
estudios de caso, pero con el objetivo de alcanzar una visión siste- 
mática. Desde un punto de vista puramente biográfico, Laudan no 
pertenece a la generación de Kuhn y Lakatos, pues su primera obra 
importante, Progress and its Problems [El progreso y sus problemas], 
apareció en 1977; pero sin duda forma parte de lo que hemos llama- 
do “corriente historicista” por su enfoque. Laudan desarrolla una 
metateoría diacrónica de la ciencia/ que es más sistemática, aunque 
también más matizada y menos polémica que las de Kuhn o Lakatos. 

4 Véase T.S. Kuhn, The Road since Structure , pp. 317-319; trad. esp. 367-369. 

5 1. Lakatos, The Methodology of the Scieritific Research Programmes, p. 102; trad. esp., 
p. 134. 



100 El desarrollo moderno de la filosofía de la ciencia (1890-2000) 


La noción básica en la concepción de Laudan es la de tradición 
de investigación . Designa la entidad fundamental para comprender 
la estructura diacrónica de la ciencia. La pone explícitamente en 
relación con los paradigmas de Kuhn y los programas de investi- 
gación de Lakatos, y subraya las similitudes, así como el hecho de 
que la noción que él propone está mucho más articulada y que, por 
tanto, resulta más adecuada al material histórico que sus “parientes 
cercanas” en los otros autores, f 'i 

Laudan observa que lo que comúnmente se llama una “teoría 
científica” debe ser concebida de antemano como una red de pro- 
posiciones y conceptos, pero que hay que distinguir entre dos tipos 
esencialmente diferentes de red. El primer tipo (más “pequeño”) 
está constituido por un conjunto relativamente bien delimitado de 
leyes y de hipótesis, bien articuladas las unas con las otras, emplea- 
das para efectuar predicciones experimentales u ofrecer explicacio- 
nes de fenómenos en un dominio también bien delimitado. Ejem- 
plos de tales redes proposicionales son la óptica newtoniana, la elec- 
trodinámica de Maxwell, la teoría de Bohr sobre lá estructura del 
átomo o la teoría de la plusvalía de Marx. Sin embargo, se puede 
igualmente detectar en la estructura diacrónica global de la cien- 
cia otro tipo de red, mucho más vasto, constituido por doctrinas o 
presuposiciones más generales y que no son directamente compro- 
bables por la experiencia. Los ejemplos que da Laudan son la teoría 
de la evolución, la teoría atómica o la teoría cinética de los gases. Re- 
conoce que el mérito de Kuhn y Lakatos es haber comprendido la 
importancia de la presencia de esta clase de estructuras conceptua- 
les muy generales en la evolución de las ciencias, aunque señala que 
sus análisis son aún demasiado simplificados y, por tanto, inadecua- 
dos. Son estas estructuras conceptuales generales las que orientan 
la investigación científica y que Laudan quiere subsumir bajo la des- 
cripción de “tradiciones de investigación”. Para él, se componen de: 

1) cierto número de presupuestos muy generales compartidos por 
todos los miembros de la tradición. Estos presupuestos son de dos 
tipos: a) compromisos metafísicos, es decir, creencias a priori sobre el 
género de entidades o procesos que constituyen el dominio de la in- 
vestigación (por ejemplo, los átomos en ciertas tradiciones de la físi- 
ca); b) normas epistémicas y metodológicas , es decir, normas que rigen 
la manera de someter las hipótesis a prueba, de recopilar los datos, 
etcétera. 



Fase historicista ( 1960-1985 ) 


101 


2) un cierto número de teorías específicas que son compatibles con 
los elementos de 1) y que pueden ser contrastadas con la experien- 
cia, Laudan subraya que estas teorías específicas no están en una 
relación deductiva con los presupuestos de 1), es decir, que no son 
su consecuencia lógica. La relación de compatibilidad es mucho más 
débil que la de deducibilidad. 

3) un cierto número d e problemas por resolver (o ya resueltos ). Estos 
pueden aún ser de dos tipos: a) problemas empíricos, que suponen la 
aplicación de las teorías específicas al dominio de la investigación; 
b) problemas conceptuales, que resultan de algunas contradicciones in- 
ternas o ambigüedades en ciertas teorías específicas, o tensiones en- 
tre una teoría específica y otra, o conflictos con presupuestos meta- 
físicos y/ó metodológicos. 

El análisis de la estructura general de las tradiciones de inves- 
tigación en los términos de estos componentes es, en principio, 
puramente sincrónica; Laudan le añade una dimensión diacrónica 
haciendo dos observaciones suplementarias: a) las tradiciones de 
investigación son entidades “genidénticas” en el sentido de que su 
formulación cambia con el tiempo histórico a raíz de los problemas 
encontrados —este cambio de formulación afecta sobre todo algunas 
de las teorías específicas, pero a veces también a los presupuestos 
generales—; b) la coexistencia de varias tradiciones de investigación 
en competencia en el curso de un mismo periodo es más bien la 
regla que la excepción (contrariamente a la hipótesis de Kuhn y más 
en concordancia con Laicatos). 

La concepción general, ofrecida por Laudan, de las estructuras 
diacrónicas de la ciencia y de su base sincrónica está, sin duda, más 
articulada y detallada que la de los historicistas precedentes, y pro- 
bablemente sea más útil para orientamos en el análisis de casos con- 
cretos. Sin embargo, sufre igualmente de una carencia de precisión 
conceptual y metodológica, que hace problemática su aplicación y su 
control frente a los ejemplos. Nos limitaremos a señalar dos dificul- 
tades que aparecen de manera bastante evidente cuando se quiere 
aplicar sistemáticamente el marco metateórico de Laudan. Prime- 
ramente, sería deseable tener una visión más clara de la relación 
entre los componentes 1) y 2) de cada tradición de investigación, 
es decir, entre los presupuestos generales de orden metafíisico y me- 
todológico, de un lado, y las teorías específicas, de otro. Se puede 
aceptar fácilmente que esta relación no pueda ser una deducción 
formal; pero afirmar que las teorías específicas deben ser “compati- 



102 El desarrollo moderno de la filosofía de la ciencia (1890-2000) 


bles” o “coherentes” con los presupuestos generales es insuficiente. 
Cualquier teoría específica puede ser concebida como compatible 
con presupuestos generales mientras no esté en contradicción ló- 
gica con ellos, lo que convertiría la noción misma de tradición de 
investigación en algo casi carente de sentido. Otra dificultad, quizá 
más grave aún para la práctica reconstructiva del metateórico que 
emprende un análisis del material histórico, consiste en que Laudan 
no da ningún criterio operacionál preciso para distinguir el nivel 
de las teorías específicas del de los presupuestos generales. Puesto 
que las teorías científicas no son casi nunca directamente verificables 
por la experiencia, el criterio de tests empíricos es claramente insufi- 
ciente. Por consiguiente, frente al ejemplo concreto de un producto 
científico históricamente dado, se vuelve bastante difícil clasificarlo 
con buenos argumentos en un nivel u otro. Para dar un ejemplo, 
tomemos el caso de la mecánica newtoniana, que seguramente de- 
bería ser concebida como una tradición de investigación en el caso 
de Laudan, y tomemos algunos elementos que forman, sin duda, 
parte de esta tradición: es razonable, según Laudan, considerar la 
ley de la gravitación universal como una “teoría específica” de esta 
tradición. Pero, ¿qué decir de la hipótesis según la cual todas las 
fuerzas actuantes sobre las partículas dependen de un modo u otro 
de la distancia que las separa? Esta hipótesis es más general que la 
precedente, pero todavía más o menos comprobable a partir de la 
experiencia y la observación. ¿Qué decir del axioma aún más gene- 
ral de la mecánica newtoniana, el “segundo principio”, / = m * a? 
¿Es un presupuesto “metafísico-epistemológico” o una “teoría espe- 
cífica”? Este principio, en sí mismo, no puede ser comprobado por 
la experiencia. Quizá Laudan estaría dispuesto a clasificarlo en el 
nivel de los presupuestos generales. Pero, entonces, ¿dónde situar la 
hipótesis newtoniana aún más general según la cual el universo está 
constituido en última instancia por partículas dotadas de masa, de 
fuerzas que actúan entre ellas y por un espacio y un tiempo abso- 
. lutos? La indeterminación de los niveles de análisis propuestos por 
Laudan se hace patente desde el momento en que uno intenta apli- 
carlos a la práctica; este es, probablemente, uno de los motivos por 
los cuales se le ha seguido poco. 

2. El relativismo socio-epistémico 

El historicismo en filosofía de la ciencia desemboca naturalmente no 
en una epistemología historicista como tal, sino más bien en el rela- 
tivismo, o para ser más precisos, en el relativismo sociologista en re- 



Fase historicista (1960-1985) 


103 


lación con los conocimientos científicos, es decir, la idea general de 
que todas las nociones fundamentales comúnmente empleadas para 
describir el conocimiento científico —tales como verdad, justificación, 
racionalidad, realidad, etc.— son sólo válidas con relación a culturas 
o comunidades dadas. La hipótesis de base de las investigaciones 
científicas (implícita en la mayor parte de los investigadores de las 
ciencias empíricas, explícita en la mayor parte de los filósofos desde 
la Antigüedad) es que hay que distinguir claramente entre el hecho 
de que uno crea que una proposición es verdadera y el hecho de que 
sea verdadera. El primer hecho puede depender, entre otras cosas, 
de la cultura o comunidad a la cual el sujeto epistémico pertenece; 
el segundo, en absoluto. Según la concepción clásica de la noción 
de verdad, sin la cual la empresa científica tal y como la conocemos 
perdería su sentido, la proposición “La Tierra es plana” es una pro- 
posición falsa y lo ha sido siempre, aparte de que haya otras culturas 
que todavía lo crean. Para el relativista, lo que sucede es otra cosa: 
la creencia (colectiva) és él solo criterio de verdad. Para él, una pro- 
posición cualquiera que sea verdadera, o racionalmente justificada, 
en una cultura K, no lo es necesariamente en otra cultura K! . No 
hay que suponer que haya una instancia superior que nos permita 
decidir cuál de las dos tiene razón. La proposición “La Tierra es 
plana” es perfectamente falsa en nuestra cultura occidental, pero si 
un grupo de aborígenes de Nueva Guinea u otro cualquiera cree 
que es verdadera, entonces es igualmente verdadera, y punto. 

El relativismo tiene una historia milenaria. La primera posición 
relativista bien documentada en la historia del pensamiento esda de 
Protágoras, para quien “el hombre es la medida de todas las cosas”. 
Sin embargo, el relativismo contemporáneo se distingue del tradi- 
cional en que no preconiza una relatividad de nociones epistémicas 
en relación con individuos, sino en relación con sujetos colectivos 
(culturas, comunidades, grupos sociales). En esto se pretende más 
“progresista” que su predecesor histórico. (El postulado marxista 
según el cual las ideas filosóficas, o incluso científicas, dependen 
esencialmente, en su legitimidad, de la clase social a la cual perte- 
necen los individuos que las sostienen, es una fuente de inspiración 
tácita, aunque evidente, para el relativismo contemporáneo.) 

Llamaremos a esta forma particular de relativismo “relativismo 
socio-epistémico” en el sentido de que se refiere a las nociones epis- 
témicas más fundamentales, y en el que las entidades con respecto 
a las cuales se relativizan las nociones epistémicas son entidades 
sociales. Hay que subrayar que esta denominación no es habitual. 



104 El desarrollo moderno de la filosofía de la ciencia (1890-2000) 


Se habla más frecuentemente de “constructivismo social” o simple- 
mente de "constructivismo”. Sin embargo, puesto que el término 
“constructivismo” ha sido utilizado en la historia de la filosofía para 
referirse a otras corrientes (por ejemplo, el kantismo o ciertas con- 
cepciones en la filosofía de las. matemáticas o la física —pensemos 
en el “constructivismo” de la Escuela de Erlangen examinado en el 
capítulo 4—) que no tienen mucho ; que ver con la posición que que- 
remos discutir ahora, preferimos-la denominación de "relativismo 
socio-epistémico”, que nos parece también más adecuada a la forma 
de pensar que tratamos de describir. 

El relativismo generalizado a todos los niveles de la vida y del co- 
nocimiento es una manifestación cultural típica del fifi del siglo XX. 
Para emplear una terminología aún recientemente dé moda, pode- 
mos decir que el relativismo es una de las numerosas manifestacio- 
nes de la “posmodernidad”. Adoptando el punto de vista sociolo- 
gista o socio-historicista tan caro a los relativistas contemporáneos, 
podemos tratar de explicar la gran popularidad de que ellos gozan 
hoy en. día por el choque de culturas y comunidades muy diferentes 
en un mundo donde la comunicación es cada vez más fácil y, por la 
misma razón, más conflictiva. En una situación tal, se puede estar 
tentado de tratar de evitar, o al menos gestionar mejor, estos conflic- 
tos sosteniendo que “todo el mundo tiene razón” (sú razón). . . Sin 
involucramos aquí en una especulación “metahistórica” o “metacul- 
tural” que iría más allá del alcance de este libro, podemos señalar 
que sólo cabía esperar, vista la enorme difusión del relativismo en 
todos los sectores de la cultura, que las posiciones relativistas radi- 
cales se manifestaran a su vez en las consideraciones epistemológi- 
cas de las ciencias establecidas, independientemente de la evolución 
precedente de la filosofía de la ciencia. 

Dicho esto, podemos igualmente detectar raíces específicas al re- 
lativismo socio-epistémico que provienen de las ideas de los autores 
de la fase historicista de la filosofía de la ciencia, sobre todo de Kuhn 
y Feyerabend. Si los paradigmas separados por una revolución cien- 
tífica (Kuhn) o las teorías separadas por una relación de reducción 
(Feyerabend) son “inconmensurables”, entonces podemos estar fá- 
cilmente abocados a interpretar este estado de cosas como la prueba 
de que los criterios de verdad, de justificación racional e incluso de 
realidad son pura y simplemente internos a los paradigmas o a las 
teorías. Cada teoría tiene su propia verdad, sus propios criterios de 
justificación, su propia realidad. El paso siguiente (solamente im- 
plícito en Kuhn y Feyerabend) se da cuando nos preguntamos: si la 



Fase historicista (1960-1985) 


105 


instancia que decidí la aplicación de criterios de verdad, de justifica- 
ción y de racionalidad no es una realidad objetiva o una experiencia 
intersubjetiva y universal, —¿entonces qué es?—. La respuesta que se 
impone es que esta instancia no puede ser otra que la comunidad 
de científicos que propone y utiliza la teoría en cuestión. El sujeto 
(colectivo) de la ciencia determina exclusivamente la naturaleza del 
objeto de la investigación científica. De ahí que el único estudio que 
tiene sentido en relación con las teorías científicas sea el estudio 
sociológico de los usuarios de estas teorías, con sus prejuicios, ritua- 
les, relaciones mutuas, conflictos, “negociaciones”. Las disciplinas 
científicas deben estudiarse de la misma manera que un etnólogo 
tradicional estudia las costumbres y creencias de una tribu más o 
menos “exótica”. De esta forma, la filosofía de la ciencia se convier- 
te enteramente en una sociología o etnología de la ciencia (es decir, 
de las comunidades científicas). 

Este último paso (que, repito, sólo está implícito en Kuhn y Feye- 
rabend) fue dado explícita y enfáticamente por un cierto número de 
sociólogos y algunos filósofos de la ciencia. Entre los primeros po- 
demos citar a Bruno Latour (Francia, nacido en 1947), Karin Knorr- 
Cetina (Austria, nacida en 1944) y, sobre todo, la muy influyente es- 
cuela de Edimburgo, cuyos miembros más eminentes son probable- 
mente Barry Barnes y David Bloor (Reino Unido). Entre los filósofos 
de la ciencia, un caso notable es el de Mary Hesse (Reino Unido, na- 
cida en 1924), filósofa de tendencia más bien “clásica”, que intentó 
aportar al programa de la Escuela de Edimburgo (llamado “el pro- 
grama fuerte en sociología de la ciencia”) precisiones conceptuales 
y una base argumental en su libro Revolutions and Reconstructions in 
the Philosophy of Science (1980) [Revoluciones y reconstrucciones en 
la filosofía de la ciencia]. 

Según Hesse, el núcleo del “programa fuerte” de la Escuela de 
Edimburgo, con el cual está plenamente de acuerdo, es la negación 
de lo que ella llama “racionalismo exagerado” (de hecho, es la po- 
sición de todos los filósofos de la ciencia no sociologistas) y, por 
oposición, la adopción del siguiente postulado: “Hay que considerar 
ahora como conocimiento aquel que es aceptado como tal en nues- 
tra cultura.” 6 Si este postulado vale para “nuestra cultura” (aunque, 
desgraciadamente, Hesse no es muy /explícita sobre lo que significa 
“nuestra cultura”), entonces vale también, por supuesto, para cual- 
quier otra cultura. De donde necesariamente se sigue que el término 
de “conocimiento” y términos que están íntimamente ligados, como 

6 M. Hesse, Revolutions and Reconstructions in the Philosophy of Science, p. 42. 



106 El desarrollo moderno de la filosofía de la ciencia (1890-2000) 


“verdad” y “justificación”, 7 tiene sentidos diferentes, e inconmensu- 
rables, en culturas diferentes. Lo que vale para el conocimiento a 
secas vale ciertamente también para el conocimiento científico . 

Se puede precisar y generalizar el postulado de Hesse y los “edim- 
burgueses” en la formulación que sigue: 

[R] Para una proposición deñtífica cualquiera p, las expresio- 
nes a p es verdadera” o “p está justificada” no tienen verdadera- 
mente sentido; lo que tiene sentido es “p es verdadera-en-iT’ o 
“p está justificada-en-i£”, donde K es una cultura dada, y donde 
las expresiones “verdadero-en-If” y “justificado-en-iT’ deben ser 
interpretadas como predicados inanalizables. 

Del postulado [R], se sigue que los enunciados “p es verdadéra- 
en -j£” y “p es falsa-en-1^ ”, para la misma proposición p y para K=fÉ> 
son perfectamente compatibles, y que representan todo aquello que 
se puede afirmar sobre p. No hay contradicción alguna. Por tanto, 
no hay noción universal de conocimiento, ya que por principio no 
puede haberla, y, por tanto, tampoco hay una noción universal de 
ciencia. 

El programa del relativismo socio-epistémico, tal y como queda 
sintetizado en el postulado [R], tropieza con graves dificultades con- 
ceptuales y metodológicas a la vez. Mencionaré solamente dos, una 
que es específica a esta forma de relativismo, mientras que la otra 
tiene un carácter más general. La dificultad específica proviene del 
papel desempeñado en la formulación del programa. ¿Cuáles son las 
instancias- aceptables para la variable K en el esquema [R]? ¿Cuáles 
son las dimensiones de estas instancias y cómo se determinan sus 
límites? ¿Es el conjunto de personas en el mundo que está en pose- 
sión de un título universitario un buen ejemplo de una K? ¿O úni- 
camente aquellos que tienen un doctorado en física? ¿O únicamen- 
te los que se ocupan de la física del estado sólido? ¿O únicamente 
los que se ocupan de la física del estado sólido en Japón?. . . Re- 
sulta sorprendente que Hesse y los representantes de la Escuela de 
Edimburgo, así como los otros epistemólogos sociologistas, no di- 
gan absolutamente nada acerca de esta cuestión. Quizá piensan que 
es tarea de otros sociólogos identificar las diferentes culturas o co- 
munidades epistémicas en el mundo. Pero, entonces, sea cual sea 

7 Habitualmente y desde Platón, se ha definido el conocimiento como una “creen 
da verdadera justificada”. 



Fase historicista (1960-1985) 


107 


la división en culturas propuesta por un sociólogo, esta división se 
realizará sin duda desde el punto de vista de la cultura concreta a la 
cual él pertenece, la cual no ha de ser necesariamente la misma que 
la de un colega suyo, que quizá proponga entonces una clasificación 
distinta de las comunidades epistémicas —igualmente válida según 
el postulado [R]— . En suma, la noción de cultura en el relativismo 
sociologista permanece como algo tan vago y arbitrario que la posi- 
ción misma permanece indefinida y completamente incontrolable. 

La otra grave dificultad es característica de toda forma de relati- 
vismo: se trata del problema de la autorreferencialidad, ya señalado 
por Platón en su crítica a Protágoras. Si la verdad y la justificación 
de toda teoría son relativas, entonces la teoría de los relativistas es 
también una teoría relativa. Hesse y los representantes de la Escue- 
la de Edimburgo son conscientes de esta consecuencia y se atreven 
a asumirla. En su obra., fundacional de 1979, Knowledge and Social 
Imagery [Conocimiento é imaginario social], Bloor afirma la autorre- 
ferencialidad como uno de los postulados centrales del “programa 
fuerte”: la metodología y los presupuestos de este programa deben 
aplicarse a las investigaciones socio-epistémicas mismas, conducidas 
en el espíritu de este programa. A lo que uno puede simplemente 
responder que estas investigaciones serán válidas sólo para aquellos 
que se comprometan con el programa en cuestión. Para otros (entre 
los cuales me cuento yo mismo), serán tan sólo una manifestación 
suplementaria, particularmente desafortunada y grotesca, del espíri- 
tu relativista que invade ciertos departamentos de ciencias humanas 
en las universidades occidentales. Y al relativista socio-epistémico, 
según sus propios postulados, no le queda otra que aceptar esta 
apreciación (relativa, pero tan válida coúío la suya). 

Habiéndose dado la situación aporética a la que conduce el rela- 
tivismo en materia epistemológica, no resulta sorprendente que la 
filosofía de la ciencia en sentido estricto no haya sido apenas pro- 
seguida por los autores directamente influidos por la fase histori- 
cista, que es la base (o una de las bases) histórica(s) del relativismo 
socio-epistémico. Se han convertido en sociólogos relativistas “puros 
y duros”, o bien se ocupan de otros temas. En la medida en que los 
filósofos de la ciencia no han simplemente desarrollado (o retoma- 
do) la metodología de lo que hemos convenido en llamar filosofía de 
la ciencia “clásica”, la renovación de la disciplina durante los tres úl- 
timos decenios del siglo XX tiene un origen completamente distinto 
al del historicismo: la teoría formal de modelos de Alfred Tarski y su 
aplicación a las ciencias empíricas por parte de Patrick Suppes y sus 



108 El desarrollo moderno de la filosofía de la ciencia (1890-2000) 


colaboradores a partir de los años cincuenta. Partiendo de este tron- 
co común, una serie de concepciones se desarrolló durante los años 
setenta y ochenta, todas las cuales, excepto una (el estructuralismo 
de Sneed y Stegmüller, que retomó explícitamente algunas ideas de 
Kuhn), no tienen ninguna conexión con los autores historicistas. 
Constituyen un conjunto bastante heterogéneo: no se puede hablar 
de una tendencia unitaria y, aúpamenos, de una escuela; pero todas 
ellas tienen cierto “aire de familia”, que precisamente proviene de su 
interés común por el concepto de modelo (en tanto que unidad básica 
de representación del conocimiento científico) y dé su rechazo más 
o menos radical del tipo de análisis casi puramente sintáctico de las 
teorías científicas —una de las características de la segunda y tercera 
fase de la historia de la filosofía de la ciencia—. 



6 


CONCEPCIONES MOBELÍSTICA3 
Y EMPARENTABAS (1970-2000) 


1 . Introducción de carácter general 

En esta última fase de la historia de nuestra disciplina, que ocupa 
aproximadamente las, últimas tres décadas del siglo XX, es difícil en- 
contrar una característica común a los diversos autores y corrientes 
que han desempeñado, o todavía desempeñan, un papel significati- 
vo durante esta fase. Falta, además, la perspectiva que da el transcur- 
so del tiempo. Sin embargo, podemos observar un “aire de familia” 
en la mayor parte de los representantes importantes de la filosofía de 
la ciencia durante este periodo. Establecer algunos rasgos comunes 
—aun cuando hayamos de describirlos de un modo un tanto vago, 
pues admiten realizaciones diferentes en cada enfoque— nos ayuda- 
rá a medir el camino recorrido por nuestra disciplina desde 1970. 

Se constata, en primer lugar, una profunda desconfianza (si no 
una franca aversión) hacia una metodología casi exclusivamente sin- 
táctico-formal en el análisis de los conceptos y las reconstrucciones 
de las teorías científicas emprendidas por muchos de los autores más 
influyentes de la fase “clásica” (Carnap, Hempel, Nagel, Braithwaite 
e incluso Popper y sus discípulos). He ahí un punto en común entre 
los autores de la fase que estamos considerando y los historicistas, 
aunque su rechazo del “sintacticismo” obedece a motivaciones com- 
pletamente diferentes: no es que den la primacía a una metodología 
historiográfica (ligada a la idea muy extendida según la cual “la his- 
toria de las ideas no se deja analizar formalmente”), ni que recusen 
los métodos más o menos formales de análisis. Al contrario, cierto 
número de autores pertenecientes a los tres últimos decenios consi- 
dera que los problemas que enfrentaron los análisis clásicos de las 
teorías científicas provienen de la aplicación de instrumentos for- 
males demasiado elementales (básicamente la lógica de predicados de 



110 El desarrollo moderno de la filosofía de la ciencia ( 1890-2000) 


primer orden), y que más bien deben utilizarse instrumentos lógico- 
matemáticos “fiiertes” (teoría de conjuntos, topología, teoría de mo- 
delos, lógicas modales e incluso nociones no triviales de la informá- 
tica) para dar cuenta de aquello que e& esencial en las teorías, sobre 
todo en las disciplinas fuertemente matematizadas como la física y 
una gran parte de la química, de la biología y de las ciencias sociales. 

La noción puramente sintáctica o, cuasi-sintáctica de teoría cientí- 
fica, como conjunto de axiomas con sus consecuencias lógicas (no- 
ción característica de la fase clásica), no se considera adecuada a la 
complejidad de las estructuras conceptuales y metodológicas de las 
ciencias empíricas. La noción de teoría es reinterpretada en un mar-, 
co semántico o semántico fragmálico , o incluso completamente reem- 
plazada por la noción de modelo, cuya definición varía, no obstante, 
según los autores. Se puede, pues, recurrir al neologismo “modelísti- 
co” para intentar caracterizarlos rasgos comunes a las concepciones 
que aquí nos interesan. En ciertos autores, la noción de modelo está 
definida de manera formal (con ayuda de la teoría de conjuntos, por 
ejemplo), en otros es usada de manera más informal; pero, en todos 
los casos, se considera que son los “modelos”, como representaciones 
(parciales e idealizadas) de “pequeñas partes” de la realidad (o de 
la experiencia humana) lo que constituye la “sustancia” del conoci- 
miento científico. 

Desde un punto de vista epistemológico general, la mayoría de los 
autores de este periodo es abierta o implícitamente antirrealista, si 
entendemos por “realismo científico” la creencia en el presupuesto 
de que el objetivo de las teorías científicas es reflejar, de una manera 
más o menos aproximada, la realidad de la naturaleza “tal y como 
es”. Una cierta dosis de “instrumentalismo” en sentido amplio está 
presente en muchos de estos autores: los modelos propuestos por las 
ciencias son instrumentos que permiten que nos orientemos en un 
campo de la experiencia humana que es demasiado complejo para 
que una sola teoría lo refleje completa y fielmente. 

De manera general, los factores pragmáticos que intervienen en 
la constitución de la estructura y el funcionamiento de las teorías 
científicas se toman en cuenta muy seriamente, y en algunos auto- 
res podemos encontrar intentos de sistematización de la dimensión 
pragmática de la ciencia, a veces incluso formalizados. No obstante, 
esta “pragmatización” del análisis de la ciencia (es decir, la conside- 
ración de factores ligados a los intereses de la comunidad científica 
que construye sus modelos de representación de la experiencia) no 
equivale a una “sociologización” pura y simple de la noción de teoría 



Concepciones modelísticas y emparentadas (1970-2000) 


111 


o del método científico —como fue el caso de muchas interpretacio- 
nes historicistas— . Y menos aún se trata de caer en la trampa del 
relativismo socio-epistémico. 

Los estudios de caso de teorías científicas concretas se vuelven muy 
importantes: sin ser considerados valiosos en sí mismos, son utiliza- 
dos como “tests” para poner a prueba o para ilustrar una visión más 
general de la ciencia, o al menos de una disciplina particular (como 
la física o la biología). Al mismo tiempo, se constata una tendencia 
(metodológica e incluso epistemológica y ontológica) al pluralismo : 
la idea de que no existiría mas que una manera esencial de “hacer 
ciencia”, o un único método formal para aplicar las directrices del 
espíritu científico, se cuestiona de raíz. 

Sin embargo, los diversos representantes de una concepción “mo- 
delística” de la disciplina no rechazan de plano las contribuciones 
de los autores del positivismo lógico y de la filosofía clásica de la 
ciencia. Muchos conceptos, temas y problemas de las fases prece- 
dentes —tales como la relación entre la teoría y la experiencia, la 
noción de explicación científica, el papel de las formas de inferencia 
no deductiva, el concepto de ley científica, la noción de reducción 
entre teorías, etc vuelven a entrar en escena, aunque con una in- 
terpretación diferente. 

Estudiemos ahora algunos de los enfoques más característicos o 
los más conocidos de la “nebulosa modelística”. Aunque la lista no 
es exhaustiva, es, sin embargo, significativa. Examinaremos estos en- 
foques en orden cronológico, a partir del momento en que tomaron 
por primera vez una forma lo suficientemente reconocible; no olvi- 
demos, sin embargo, que en el momento en que escribimos estas 
líneas, todos estos enfoques (con excepción quizá del primero) si- 
guen desarrollándose, de tal suerte que es difícil dar una imagen 
definitiva de ellos. 

2. La concepción conjuntista de la escuela de Stanford 

Me permito introducir aquí un neologismo poco atractivo (“conjun- 
tismo”) para designar los trabajos de un grupo de lógicos y filóso- 
fos de la ciencia, activos sobre todo en la Universidad de Stanford 
(Estados Unidos), que han aplicado sistemáticamente los conceptos 
y los principios de la teoría de conjuntos a la reconstrucción y al 
análisis de las teorías de las ciencias .empíricas, principalmente de la 
física clásica (incluida la teoría especial de la relatividad). El término 
“concepción conjuntista” se propone, pues, como la traducción más 
satisfactoria de la expresión anglosajona set-theoretical view. 



112 El desarrollo moderno de la filosofía de la cienciaf 1890-2000 ) 


Desde el punto de vista estrictamente cronológico, los principales 
trabajos de esta escuela pertenecen aún a la fase “clásica” de la filo- 
sofía de la ciencia, pues la mayor parte de ellos fueron publicados 
en los años cincuenta y sesenta. Sin embargo, el desarrollo del mé- 
todo “conjuntista” y su aplicación a un gran número de estudios de 
caso se llevó a cabo de una forma casi totalmente independiente de 
las discusiones características de la fase clásica, y el método recons- 
tructivo de los miembros de la escuela de Stanford tuvo una gran 
influencia, a menudo explícitamente reconocida, sobre los autores 
de esta última fase de la filosofía de la ciencia. 1 

Patrick Suppes (Estados Unidos, nacido en 1922) es, sin duda, 
el representante más eminente de esta escuela. En colaboración con 
el lógico J.C.C. McKinsey y otros investigadores, tuvo la idea de axio- 
matizar las teorías empíricas de una manera mucho más simple y 
“transparente” conceptualmente que las tentativas! precedentes, lo 
que no sólo le permitió comprender más fácilmente la estructura 
interna “esencial” de la teoría así reconstruida, sino también exami- 
nar adecuadamente sus eventuales relaciones con otras teorías. El 
método reconstructivo propuesto por Suppes y sus colaboradores 
es conocido con el nombre de “axiomatización por definición de un 
predicado conjuntista” ( axiomatization by definition of a set-theoretical 
predícate ). Estrictamente, no inventaron este método: se inspiraron 
en ciertas ideas del gran lógico Alfred Tarski (McKinsey fue dis- 
cípulo suyo), que ya habían sido puestas en práctica en las teorías 
matemáticas* y en los trabajos de sistematización dejlas matemáticas 
emprendidos por el grupo de Bourbaki durante los años cuarenta 
y cincuenta. Sin embargo, además de algunas diferencias un tanto 
técnicas en la manera de desarrollar el método, Suppes y sus colabo- 
radores aportaron una gran innovación a la filosofíá de la ciencia al 
mostrar de manera convincente que uno puede reconstruir de este 
modo prácticamente cualquier teoría científica empírica , dándole de 
esta forma su criterio de identidad con una gran precisión, sin que 
la tarea se vea sobrecargada por el aparato lógico considerado an- 
teriormente como necesario para la reconstrucción de teorías. La 
teoría de conjuntos utilizada para aplicar el método “stanfordiano” 
sólo consiste en lo que habitualmente se llama la teoría “informal” 
o “intuitiva” de conjuntos, la cual a su vez no está axiomatizada for- 
malmente, y, sin embargo, representa el aparato matemático más 
próximo desde un punto de vista conceptual de lo que es requerido 
en la práctica científica (y en el análisis epistemológico). De hecho, 
Suppes es probablemente el primer filósofo de la ciencia en darse 



Concepciones modelisticas y emparentadas (1970-2000) 


113 


cuenta de que la lógica de predicados de primer orden (la herra- 
mienta de análisis favorita de los positivistas lógicos y de los filósofos 
clásicos de la ciencia) no es un buen instrumento formal de análisis 
y de reconstrucción de la ciencia; al no servir más que para el aná- 
lisis de cuestiones muy elementales, este instrumento lógico es a la 
vez “demasiado burdo” y “demasiado simple”. El método conjuntista 
tiene otra ventaja: permite determinar directamente y sin recurrir a 
la construcción de un sistema de semántica formal, cuáles son los 
modelos de una teoría dada, es decir, las entidades conceptuales que 
supuestamente representan las diferentes partes del mundo de la 
experiencia; los modelos de una teoría son simplemente las entida- 
des que satisfacen lo que se llama un predicado conjuntista. Además, 
esta determinación de la noción de modelo nos permite compren- 
der de una sola vez que una teoría cualquiera producirá en general 
un número indeterminado de modelos realmente diferentes para 
representar la realidad —y no uno solo, como numerosos filósofos 
a menudo suponían--; En fin, como enseguida veremos, el método 
permite detectar directamente la forma lógica de los “compromi- 
sos ontológicos” de la teoría así reconstruida — lo que, seguramente, 
también es posible en el método clásico axiomático-formal, pero de 
una manera mucho menos directa y transparente—. 

¿En qué consiste exactamente el método de “axiomatización por 
definición de un predicado conjuntista”? No entraremos aquí en los 
detalles técnicos, pero un ejemplo, ciertamente muy simplificado, 
aclarará nuestra exposición. Supongamos que en un manual de so- 
ciología o de psicología encontramos, por ejemplo, una “teoría” que 
nos habla de relaciones familiares y nos explica que las familias son 
entidades complejas constituidas por un padre y una madre, ligados 
entre sí por el matrimonio, y al menos un hijo engendrado por ellos. 
¿Cuál es exactamente la identidad de esta teoría (y sus modelos)? La 
respuesta está dada por la definición del siguiente predicado con- 
juntista: 

x es una familia si y sólo si x es una tupia (en el sentido de 
la teoría de conjuntos) constituida por un conjunto básico de 
al menos tres elementos y por dos relaciones diádicas (en el 
sentido de la teoría de conjuntos), llamadas “matrimonio” y 
“engendrar”, que satisfacen ciertas propiedades que se pueden 
formular con ayuda de la teoría de conjuntos (por ejemplo, la 
relación “matrimonio” es irreflexiva y simétrica, mientras que 
la relación “engendrar” es asimétrica). Además, postulamos la 



114 El desarrollo moderno de la filosofía de la ciencia (1890-2000) 


“ley” de que, en toda familia, hay al menos un elemento que 
ha sido engendrado por otros dos elementos. 1 

Cada entidad concebida como una instancia de la variable x en 
esta definición es, pues, una estructura consistente en un conjunto 
finito de base (las personas en cuestión) y dos relaciones diádicas 
(“matrimonio” y “engendrar”) que deben satisfacer algunas condi- 
ciones expresables en teoría de coñjüntos. Ahora bien, una estruc- 
tura tal es precisamente un modelo de la teoría. 2 

La escuela de Stanford muestra que no existe, en principio, nin- 
gún obstáculo formal para identificar, con la precisión necesaria, 
todas las teorías científicas, aun las teorías más complejas de la físi- 
ca, así como sus modelos, por medio del método descrito. Además, 
una vez que la teoría y sus modelos han sido identificados, se puede 
hacer de manera bastante fácü un análisis formal de sus particulari- 
dades: por ejemplo, qué condiciones deben ser tomadas como axio- 
mas y cuáles como teoremas, cuáles son los conceptos básicos (no 

! Para los lectores que tienen alguna familiaridad con las fórmulas lógico- 
matemáticas, he aquí, a modo de ilustración, la formalización conjuntista de esta 
mini-teoría de la familia. (Usamos las abreviaturas: tt F* para . . es una familia”; “P” 
para un conjunto de personas, “M” para la relación de matrimonio y “E” para la 
relación de engendrar. Para abreviar, escribiremos, para toda relación diádica R , 
“xfíy” en lugar de la formulación “< x,y >€ R”) 

F(X) si y sólo si 3P, M, E: 

(0) X-< PyMyE > 

(1) Pf0A||P|I>2 

(2) ’M C P x P A V* Vy (*i xMx A ( xMy -+ yMx )) 

(3) ECPx P. A V xVy {xEy -> -i yEx) 

(4) 3x, y, z£P {xMy A xEz A yEz), 

Señalemos que, dejando aparte los símbolos P, M y E, que son conceptos primi- 
tivos específicos de nuestra teoría, todos los otros símbolos que aparecen en esta 
aromatización conjuntista son nociones estándares de la lógica y de la teoría de 
conjuntos. La “ley empírica”, según la cual en toda familia hay alguien que ha sido 
engendrado por otras dos personas, es expresada por la condición o axioma (4). De 
las condiciones (2), (3) y (4) tomadas conjuntamente, se sigue el “teorema” según el 
cual las tres personas involucradas en (4) son siempre diferentes entre ellas. El “com- 
promiso ontológico” de esta “teoría” está determinado únicamente por la presencia 
del conjunto P. 

2 Para volver a la formalización de la nota precedente, cada estructura < P, M, 
E > que satisfaga las condiciones (0)~(4) es, pues, por definición, un modelo de la 
teoría de la familia. Se puede probar que esta noción de modelo equivale, salvo en 
algunos casos particulares, a la noción de modelo de la semántica formal introducida 
por vez primera por Tarski y que se ha vuelto habitual en los manuales de lógica. 



115 


Concepciones modelísticas y emparentadas ( 1970-2000) 


definibles) requeridos, cuál puede ser la relación entre esta teoría y 
otra semejante, etc. 

Más que hacer declaraciones programáticas generales o compro- 
meterse con largas argumentaciones filosóficas, Suppes y sus cola- 
boradores juzgaron más convincente “pasar a la acción” y recons- 
truir tantas teorías científicas “serias” como fuera posible. Su pri- 
mera reconstrucción fue un hito en tanto que “paradigma” de la 
aplicación del método: la axiomatización conjuntista de la mecánica 
clásica de partículas, en un artículo de 1953 titulado precisamen- 
te “Axiomatic Foundations of Classical Particle Mechanics” [Funda- 
mentos axiomáticos de la mecánica clásica de partículas]. A partir 
de entonces, un gran número de teorías de la física, la psicología y 
la economía fueron axiomatizadas por Suppes mismo o por otros. 
Todas estas reconstrucciones se publicaron de manera más o menos 
dispersa en muchas revistas y compilaciones. Suppes dio algunos 
ejemplos en la última parte de su libro Introduction to Logic (1957) 
[Introducción a la lógica], cuyo título es un poco equívoco ya que no 
se trata meramente .de un manual de lógica, sino de una exposición 
del método conjuntista de reconstrucción de las teorías científicas. 
En 1970, reunió aún más ejemplos, sobre la base de una exposición 
general del método y sus ventajas, en la obra Set-Theoretical Structures 
in Science [Estructuras conjuntistas en la ciencia], que, a pesar de la 
influencia que ejerció en los filósofos “réconstructores” de teorías 
científicas, curiosamente circuló durante muchos años sólo en for- 
ma de manuscrito. Una parte importante de los trabajos de Suppes 
sobre el método conjuntista fue recogida más tarde en Models \ and 
Methods in the Philosophy of Science (1993) [Modelos y métodos en 
filosofía de la ciencia], 

A pesar de los éxitos innegables de su programa, Suppes no pa- 
rece estar en condiciones de resolver de manera satisfactoria ciertas 
cuestiones epistemológicas y metodológicas fundamentales sobre la 
naturaleza de las teorías empíricas. Señalemos un punto crítico. Si 
identificamos los modelos de una teoría por medio de un predica- 
do conjuntista, parece claro que si la teoría no es contradictoria o 
empíricamente inaceptable, encontraremos que, en principio, mu- 
chos de sus modelos son aplicables, no sólo uno. Este aspecto de la 
concepción suppesiana es completamente convincente a nivel intui- 
tivo, pues siempre se constata que cuando los científicos disponen 
de una buena teoría, en general, ésta no sólo es aplicable a una 
parte de la realidad, sino a varias. (Este hecho podría ser descrito 
como el “plurimodelismo” de las teorías empíricas.) Sin embargo, si 



116 El desarrollo moderno de la filosofía de la ciencia ( 1890-2000) 

uno identifica una teoría con todos los modelos determinados por el 
predicado conjuntista que la caracteriza, esta manera de concebir la 
identidad de las teorías científicas tropieza con un problema episte- 
mológico grave: para decirlo brevemente, el número de estructuras 
que son modelos de una teoría definida por el método de Suppes 
no sólo suele ser muy grande, sino demasiado grande. En efecto, 
siempre podemos encontrar un gran número de estructuras que sa- 
tisfagan las condiciones conjuntista#del predicado y que, por tanto, 
sean formalmente modelos de la teoría. De hecho, para una teoría 
cualquiera que no sea completamente trivial, habrá siempre un nú- 
mero infinito de modelos efectivamente diferentes. (Esto es resultado 
de un teorema bastante elemental de la teoría formal de modelos.) 
Para volver a nuestro ejemplo de la “teoría de la familia”, sean cuales 
sean 1 as condiciones más o menos restrictivas que impongamos a las 
relaciones que van de acuerdo con la caracterización del predicado 
“x es una familia”, este predicado será satisfecho no sólo por obje- 
tos que consideraríamos intuitivamente como siendo una “familia 
real”, sino también por otros objetos que no tienen absolutamente 
nada que ver con ellas, pero que satisfacen las mismas condiciones 
conjuntistas (por ejemplo, dominios finitos que consisten en un nú- 
mero superior a dos elementos, y sobre los cuales es posible definir 
una relación irreflexiva y simétrica y una relación asimétrica). Se 
puede tratar incluso de estructuras matemáticas, cuyos conjuntos 
base contienen simplemente números como elementos, y que nada 
tienen que ver con el mundo empírico . ..ni a fortiori con el mundo 
de las familias. 

Suppes mismo es más o menos consciente de este problema de 
interpretación del contenido de las teorías empíricas, pero no lo 
considera muy importante. Para él, este resultado muestra que, aun 
cuando en lá construcción de una teoría empírica estemos general- 
mente guiados por intuiciones más o menos vagas concernientes 
al dominio de experiencia al cual debe ser aplicada, una vez que 
lajeoría está bien (re)construida, constataremos siempre que tiene 
- muchas aplicaciones que no habíamos sospechado inicialmente, e 
incluso aplicaciones en dominios no empíricos (puramente mate- 
máticos, por ejemplo). De hecho, Suppes no cree en la distinción 
esencial entre ciencias empíricas y ciencias matemáticas. 

Para un filósofo de la ciencia “tradicional”, esta respuesta no es 
satisfactoria, puesto que una de las grandes cuestiones de la filosofía 
de la ciencia desde sus inicios (sea cual sea la concepción particular 
defendida) es justamente distinguir las teorías empíricas de las no 



Concepciones modelísticas y emparentadas ( 1970-2000 ) 


117 


empíricas, y hacer una distinción, en las ciencias empíricas, entre 
una disciplina y otra. Uno de los miembros más representativos de 
la escuela de Stanford, Ernest W, Adams (Estados Unidos), tematizó 
este problema y propuso otra solución. 3 Según él (y en esto lo han se- 
guido la mayoría de los autores de la nebulosa modelística), es insu- 
ficiente caracterizar una teoría científica empírica mediante una clase 
M de modelos definida por un predicado conjuntísta. Esta clase re- 
presenta solamente una parte (si bien esencial) de su identidad. Para 
tener una plena comprensión de la teoría de que se trata, hay que 
añadir a la clase M una clase I de aplicaciones intencionales ( intended 
interpretations), que nos indican el dominio de la experiencia al cual 
estos modelos deben aplicarse. Formalmente, los elementos de / son 
estructuras del mismo tipo (es decir, concebidos de la misma mane- 
ra) que los elementos de M, sin que se pueda saber a priori si son 
verdaderamente modelos actuales de la teoría, es decir, estructuras 
que satisfacen las condiciones sustanciales del predicado conjuntis- 
ta. La “esperanza” del científico consiste justamente en creer que a 
la larga se podrá mostrar que I es verdaderamente un subconjunto 
de M, es decir, que todas las aplicaciones intencionales satisfacen 
efectivamente todas las condiciones sustanciales necesarias para ser 
modelos de esta teoría. Esta esperanza constituye lo que Adams lla- 
mó la “afirmación empírica” { empirical claim) de una teoría. 

La noción de aplicación intencional, aun siendo parcialmente for- 
malizable en los términos de la teoría de conjuntos, excluye a priori 
toda suerte de estructuras más o menos “grotescas” (desde un punto 
de vista intuitivo) o incluso puramente matémáticas que, “por azar”, 
satisfagan las condiciones del predicado conjuntísta. Ahora bien, 
de esta forma lo que estamos introduciendo en la noción de teoría 
empírica és un elemento irreductiblemente pragmático : las aplicacio- 
nes (o interpretaciones) intencionales lo son para alguien ; y este “al- 
guien”, en el estado actual de las cosas, no es otro que la comunidad 
científica que, en un momento dado, construye o aplica la teoría en 
cuestión. La noción de teoría empírica depende así esencialmente 
de la noción de comunidad científica, la cual es claramente pragmá- 
tica. Es ella la que selecciona las estructuras que vale la pena intentar 
comprobar si son efectivamente modelos de la teoría. 

3 Véase la introducción a su artículo de .‘1959: “The Foundations of Rigid Body 
Mechanics and the Derivation of Its Laws/from those of Particle Mechanics” [Los 
fundamentos de la mecánica del sólido rígido y la derivación de sus leyes a partir de 
las de la mecánica de partículas]. 



118 El desarrollo moderno de la filosofía de la ciencia (1890-2000) 


Hay, sin embargo, un problema lógico-matemático en esta con- 
cepción, sutil pero profundo, al cual Adams no da una solución 
convincente: en la determinación de la clase J, no se trata sólo de 
tener en cuenta los deseos o intenciones de los científicos, sino tam- 
bién de identificar cada uno de los elementos de I, dado que es 
la única manera factible de determinar verdaderamente aquello de 
lo que queremos hablar en nuestra, teoría. Ahora bien, en la con- 
cepción de Adams estamos constreñidos a presuponer, para la des- 
cripción de cada elemento de I, las nociones y las condiciones sa- 
tisfechas por el predicado conjuntista característico de la teoría. De 
ahí que la “afirmación empírica” de la teoría, es decir, la proposi- 
ción “I es un subconjunto de M\ pase a ser irremediablemente au- 
tojustificativa “lo que parece contradecir nuestras intuiciones de lo 
que significa “verificar una teoría empírica”—. En términos un tanto 
metafóricos, cada teoría se tornaría así un mundo cerrado en sí mis- 
mo. . . Volveremos sobre este punto cuando tratemos la concepción 
estructur alista. 

Otra manera de intentar resolver el problema de la distinción 
epistemológica entre ciencias empíricas y ciencias matemáticas con- 
siste en efectuar un análisis profundo del sentido en el que se puede 
decir que un modelo cualquiera de una teoría es una estructura que 
pretende representar algunos aspectos de la realidad, y muy especial- 
mente los aspectos que son dados por nuestra experiencia más o 
menos inmediata (particularmente lo que se llama “experimento de 
laboratorio”). Suppes mismo, sus discípulos, y también otros inves- 
tigadores que trabajaban independientemente, siguieron esta vía de 
maneras diversas. 

3. El répresentacionalismo 

La noción de modelo, tan central para la mayor parte de los autores 
que examinamos en este capítulo, está naturalmente ligada a la de re- 
presentación: se supone que los científicos construyen modelos que 
representan más o menos bien partes de la realidad. Pero la noción 
misma de representación está lejos de ser clara a priori, en particu- 
lar, en un contexto científico. ¿Qué tipo de relación se designa con 
este término? En la estela de trabajos de Suppes y su escuela, esta 
cuestión adquiere máxima importancia. El objetivo principal de la 
ciencia sería proporcionar representaciones más o menos adecuadas 
de la experiencia, y la tarea del filósofo de la ciencia es justamente 
determinar la naturaleza de esta relación de representación. 



Concepciones modelísticas y emparentadas (1970-2000) 119 


La representación de la que aquí se trata no se parece a la acción 
de un espejo que refleja un objeto tal y como es. Los objetos que de- 
ben ser representados por modelos de teorías científicas son siem- 
pre, en cierto modo, objetos estructurados conceptualmente. Por 
ejemplo, el objeto llamado “familia Pérez”, que debe ser representa- 
do por un modelo de la “mini-teoría” de las relaciones de parentesco 
descrita anteriormente, no es un objeto de la “experiencia pura” del 
sociólogo o del psicólogo, sino un objeto concebido estructuralmen- 
te de cierta manera, en la que ciertas propiedades y relaciones son 
esenciales y otras, que uno podría tener en cuenta (como, por ejem- 
plo, el color del cabello de los miembros de la familia), no lo son. En 
suma, los objetos estudiados por las teorías científicas son dominios 
simplificados y estructurados de cierta manera. En la representa- 
ción científica se trata de proceder de tal modo que los modelos 
de la teoría, que son ellos mismos estructuras, representen lo mejor 
posible estos dominios estructurados que se dan empíricamente. Sin 
embargo, no se puede presuponer que, en la representación, hay un 
acuerdo estructural total entre el dominio representado y el mode- 
lo. En ese caso, se trataría de una relación de isomorfía ; mientras que 
—para emplear un término técnico de las matemáticas— en la repre- 
sentación científica se trata, en el mejor de los casos, de establecer 
un homomorfismo —una forma de relación más “débil” que la isomor- 
fía, que produce tma suerte de asimetría entre lo representado y el 
representante (este último es más rico en contenido “superfluo”)— . 
Más aún, en los casos más interesantes de representaciones cientí- 
ficas, el proyecto mismo de establecer una, verdadera homomor fía 
entre representado y representante se vuelve irrealizable. Podemos 
buscar entre las dos partes relaciones funcionales que sean aún más 
débiles, por lo menos tienen que ser informativas; este tipo de re- 
lación ha sido descrito a menudo como la “subsunción” (< embedding ) 
de un modelo empírico en un modelo matemático, pasando a ser el 
primero un “submodelo” del segundo. 4 

No entraremos aquí en detalles, muy técnicos, de las relaciones 
funcionales entre estructuras que pueden verse como representa- 
ciones adecuadas en un contexto científico. Señalemos sólo que la 
idea esencial del representacionalismo consiste en concebir el cono- 
cimiento científico como la investigación de las relaciones funciona- 

4 Para una definición de esta noción de subsunción, véase, por ejemplo, el ar- 
tículo de Suppes “Representation Theory and the Analysis of Science” [Teoría de la 
representación y el análisis de la ciencia], que contiene además una breve exposición 
de los objetivos generales del representacionalismo. 



120 El desarrollo moderno de la filosofía de la ciencia ( 1890-2000) 

les (reconstruibles con toda la precisión necesaria) entre diferentes 
estructuras —relaciones que permítan hacer inferencias sobre la na- 
turaleza del objeto estudiado (concebido ya de cierta manera) par- 
tiendo de propiedades estructurales de los modelos utilizados para 
representarlo—. 

Un tema esencial en el análisis de los fundamentos de la cien- 
cia moderna —la cuestión de la naturaleza de la medida — constituye 
una línea de investigación particularmente fructífera en el seno del 
programa representacionalista. Medir objetos empíricos (tarea que, 
como se sabe, ha tenido un papel crucial en el desarrollo de la cien- 
cia moderna y no sólo en las ciencias físicas) resulta ser un proceso 
de representación en el sentido preciso que acabamos de sugerir. 
¿Qué es lo que hacemos cuando medimos los objetos de un dominio 
dado? La respuesta del representacionalismo es que se establece una 
relación de representación entre un dominio cualitativo dado y una 
estructura matemática (generalmente numérica). Por ejemplo, su- 
pongamos que queremos medir la estatura de los alumnos de una 
escuela; este conjunto de individuos es, primeramente, un objeto a 
representar que tiene entre sus miembros relaciones “cualitativas” 
o “directamente observables” que se describen constatando que un 
alumno cualquiera es “más alto” o “tan alto” como otro. Ahora bien, 
cuando medimos la altura de los alumnos, lo que hacemos en última 
instancia sólo es asignar a este objeto “cualitativo” (el conjunto de 
alumnos articulado en tomo a la relación observable de la altura) 
una estructura matemática que comprende números y la relación 
aritmética “>” entre estos números. Seguramente, éste que acaba- 
mos de dar es un ejemplo muy banal; sin embargo, la tesis del repre- 
sentacionalismo es que todas las formas de medida, incluso las más 
complejas conocidas en el dominio de las ciencias, consisten, esen- 
cialmente, en el mismo procedimiento. Lo que a veces se llama el 
proceso de “matematización” de una disciplina no es sino la investi- 
gación de las condiciones adecuadas que permiten establecer este 
tipo de relación funcional (llamada justamente “representación”) 
entre estructuras empíricas dadas y estructuras matemáticas ade- 
cuadas que las “representan” y nos permiten obtener información 
acerca de las primeras —informaciones que, sin las estructuras ma- 
temáticas correspondientes, podrían obtenerse muy difícilmente o 
en lo absoluto, ya que el material cualitativo es generalmente mucho 
menos preciso y mucho más difícil de manipular conceptualmente—. 

Para comprender mejor la importancia de este programa de re- 
construcción del concepto de medida para la epistemología y la me- 



Concepciones modelísticas y emparentadas (1970-2000) 121 


todología general de la ciencia, ilustrémoslo mediante un ejemplo, 
aún bastante simple, pero más interesante que el precedente. Supon- 
gamos que a objetos físicos de tamaño medio les queremos asignar 
números que expresen su peso (o, más exactamente, su masa) —que 
es justamente lo que se entiende por la expresión “medir el peso 
de los objetos”—. No tenemos un acceso observacional directo a es- 
tos números; todo lo que podemos constatar directamente es que 
hay objetos más pesados (en el sentido cualitativo) o tan pesados 
como los otros; además, también podemos constatar directamente 
que disponemos de un aparato (una balanza, por ejemplo) que nos 
permite reunir (“combinar” o “concatenar” son las expresiones téc- 
nicas habituales) dos objetos diferentes sobre un mismo platillo de 
balanza constituyendo así un tercer objeto que resulta, por así decir- 
lo, de la combinación o concatenación de los otros dos. Se trata de 
constataciones puramente empíricas o “directamente observables”. 
No se trata aún de números ni de “cantidades”. Sin embargo, sí la 
estructura constituida por el conjunto de objetos físicos, la relación 
entre ellos (que describimos como “ser tanto o más pesado que”) 
y, finalmente, la operación de combinación consistente en poner- 
los juntos sobre el mismo platillo de balanza —si esta estructura sa- 
tisface algunas condiciones axiomáticas de naturaleza empírica, se 
puede probar formalmente que existe una función numérica (una 
“magnitud”), que simbolizaremos por “m” (la “masa”), que tiene la 
propiedad de asignar a cada objeto físico un número de tal modo 
que si un objeto a es tanto o más pesado (en el sentido intuitivo, 
cualitativo) que otro b, entonces m(a) > m{b ), y si un objeto c re- 
sulta de la combinación (empírica) de a y b, entonces m(c) = m(a) 
+ m{b )-~ . Se puede también probar que. esta función es unívoca, sal- 
vo por transformaciones de escala que son fáciles de formular. Se 
puede decir, entonces, que hemos representado la estructura empí- 
rica, constituida por objetos físicos más o menos pesados en rela- 
ción los unos con los otros y combinables, mediante una estructura 
puramente matemática de números provista de las relaciones “>” 
y Brevemente, hemos representado los datos de la experiencia 
mediante una estructura matemática. He aquí un punto crucial para 
comprender en qué consiste la reláción entre la experiencia y la ma- 
temática —lo que, como se sabe, /es un tema central de la filosofía 
de la ciencia—. Ciertamente, la prueba de que es posible represen- 
tar una determinada estructura empírica mediante una estructura 
matemática conveniente depende esencialmente de las condiciones 



122 El desarrollo moderno de la filosofía de la ciencia ( 1890-2000) 


axiomáticas que la estructura empírica debe satisfacer, y éstas no 
son, en general, condiciones fáciles de establecer. 

La proposición que expresa que una estructura empírica dada 
satisface algunas condiciones que permiten probar la existencia y 
unicidad de una representación numérica apropiada para esa estruc- 
tura es lo que se llama un teorema de representación . Una parte muy im- 
portante del programa representacionalista consiste justamente en 
establecer teoremas de representación para un gran número de con- 
gruos científicos en todas las disciplinas (longitud, tiempo, masa, 
energía, entropía, carga eléctrica, etc., en física, y asimismo utili- 
dad en economía u otras medidas en psicología de la percepción o 
en teoría del aprendizaje). Estos resultados han sido expuestos por 
Suppes y sus colaboradores (D. Krantz, RJ. Luce y A. Tversky) en 
una obra monumental, Foundations of Measurement [Fundamentos de 
la medición]. El primer volumen (el más interesante desde el punto 
de vista epistemológico) apareció en 1971; los otros dos (muy técni- 
cos) en 1987 y 1989. 

En cierto sentido, se puede establecer una relación de filiación 
entre este programa representacionalista, que se apoya en la idea de 
que los verdaderos fundamentos del conocimiento científico están 
constituidos por entidades y operaciones directamente observables 
(siendo "derivados” los conceptos teórico-matemáticos más abstrac- 
tos a partir de teoremas de representación) y el operacionalismo 
clásico de Bridgman en la fase de eclosión de la filosofía de la cien- 
cia. Sin embargo, mientras Bridgman y sus discípulos querían defi- 
nir estrictamente los conceptos teóricos matematizados de la ciencia 
mediante operaciones de laboratorio, los representacionalistas ac- 
tuales saben- que tales “definiciones” no son en general posibles (o 
pequdicarían el desarrollo.de las ciencias si se las postulara); con- 
siguientemente, se limitan a estudiar las condiciones empíricas que 
permiten representar (lo que no equivale a “definir”) los datos de 
la experiencia en una estructura teórico-matemática, que es en sí 
lógica y metodológicamente independiente de los datos empíricos. 
Se podría calificar el programa de teoremas de representación de 
“operacionalismo refinado”. . . 

A partir de los años setenta aparece otra corriente de la filoso- 
fía de la ciencia que también puede llamarse “representacionalista”, 
aunque fue concebida de forma independiente. Se trata de los tra- 
bajos del físico Günther Ludwig (Alemania, 1918-2007) y de sus 
discípulos (todos ellos físicos teóricos). Desde un punto de vista his- 
tórico, el único punto en común de Ludwig con Suppes y sus suceso- 



Concepciones modelísticas y emparentadas ( 1970-2000) 123 


res es el uso del lenguaje de la teoría de conjuntos para construir las 
teorías científicas y para esclarecer sus relaciones con la experiencia 
preteórica. De hecho, Ludwig aplica los instrumentos de la teoría 
de conjuntos de una manera mucho más sistemática que Suppes y 
sus colaboradores, utilizando el aparato fimdamental del programa 
Bourbaki. En el caso de Ludwig, el programa reconstructivo pro- 
puesto para las teorías físicas consiste en establecer los principios de 
correspondencia unívoca entre los conceptos teóricos y la base expe- 
rimental específica de una teoría determinada, abandonando la idea 
de que pueda haber una base universal común a todo el conocimien- 
to científico: cada teoría tiene su propia base experimental ya “pre- 
parada” (el Grundtext, en la terminología, bastante peculiar, de Lud- 
wig), a partir de la cual ciertas correlaciones (Abbüdungsprinzipien) 
son establecidas con ayuda del aparato matemático propio de la teo- 
ría en cuestión. Al igual que en otras formas de representacionalis- 
mo, estos principios de correlación son en general menos exigentes 
que los homomorfismos, pero deben ser formulados en el lengua- 
je de la teoría de conjuntos. Además, estos principios siempre es- 
tán asociados a una. estructura topológica que representa el aparato 
aproximativo que permite poner en relación el aparato matemático 
y el Grundtext. La idea de aproximación es, para Ludwig, una par- 
te esencial e irreducible de toda teoría física verdadera: propugna 
una visión “aproximativista” del conocimiento científico, que será 
retomada en concepciones modelísticas posteriores. Ludwig aplicó 
sistemáticamente sus ideas a la reconstrucción de la mecánica cuán- 
tica y, de una manera menos sistemática, a otras teorías físicas más 
clásicas, como la mecánica newtoniana o la electrodinámica. Presen- 
tó su metateoría general en su principal obra, Die Grundstrukturen 
einer physikalischen Theorie (1978) [Las estructuras fundamentales de 
una teoría física]. Aun cuando sus trabajos comportan elementos 
originales y estimulantes para la reflexión epistemológica, tuvieron 
poca repercusión fuera del muy restringido círculo de físicos ale- 
manes con intereses metodológicos. Tres factores pueden explicar 
esta carencia de divulgación: el estilo y la terminología de Ludwig 
son extremadamente particulares, a veces casi ininteligibles para él 
común de los filósofos; no intentó poner en relación su metateoría 
con otras concepciones contemporáneas de la filosofía de la ciencia, 
de las que parece ignorar casi todo; y (last but not least) ninguno de 
sus libros ha sido publicado en inglés. . . 



124 El desarrollo moderno de la filosofía de la ciencia (1890-2000) 


4. Las concepciones semanticistas 

En el mundo anglófono, se suele llamar semantic view (“concepción 
semántica”) a cierto número de enfoques que han marcado profun- 
damente el desarrollo de la filosofía de la ciencia, sobre todo a par- 
tir de 1970, y que tienen sus orígenes (al menos en parte) en la 
obra de Suppes y de sus colaboradores inmediatos. El apelativo de 
“concepción semántica” puede ser? quizá, motivo de confusión, en 
la medida en que el rasgo común de esta familia de autores no es 
solamente señalar la importancia de los conceptos semánticos para 
analizar las teorías científicas (lo que ya habían señalado otros auto- 
res de la fase clásica de nuestra disciplina, como Carnap, Nagel, etc.), 
sino la predominancia absoluta de la visión semántica en detrimento 
de los análisis sintácticos, visión asociada a la preeminencia de la 
noción de modelo en sus diversas variantes. Calificaremos, pues, a 
estas concepciones de “semanticistas”, más que de “semánticas”. 

Es bastante difícil circunscribir el conjunto de autores relevan- 
tes del “semanticismo”, pues en gran medida depende de lo que 
se entienda por “predominancia de lo semántico” en la filosofía de 
la ciencia; así, según algunos comentadores, el estructuralismo meta- 
teórico , del que hablaremos más adelante, también pertenece a esta 
corriente, mientras que según otros no es así. Además, la dispersión 
geográfica de los grupos que han trabajado o aún trabajan en esta 
dirección es considerable. El “núcleo duro” del semanticismo se en- 
cuentra en Estados Unidos, pero en otros países existen grupos de 
investigadores' que han contribuido de manera original a un pro- 
grama que privilegia las consideraciones semánticas: es el caso de 
los estructuralistas en Alemania, Países Bajos y en los países hispa- 
nos, de los polacos Marian Przelecki y Ryszard Wojcicki, de la escue- 
la de Newton da Costa en Brasil, o del grupo reunido en tomo a 
María Dalla Chiara y Toraldo di Francia en Italia. Concentrémonos 
en las versiones más explícitas del semanticismo, tal ¡y cómo ha si- 
do expuesto principalmente en el compendio editado por Frederick 
Suppe en 1974, j The Structure ofScientific Theories [La estructura de 
las teorías científicas]. Los tres autores más conocidos son Bas van 
Fraassen (Países Bajos/Canadá, nacido en 1941), el propio F. Suppe 
(Estados Unidos) y Ronald Giere (Estados Unidos, nacido en 1938), 
siendo el primero uno de los más influyentes filósofos de la ciencia 
de la última parte del siglo XX. 

Bas van Fraassen reconoció en varios lugares su deuda intelectual 
con Patrick Suppes, quien para él tiene el mérito de haber liberado 
definitivamente a la filosofía de la ciencia de la obsesión de los análi- 



Concepciones modelisticas y emparentadas ( 19*10-2000) 125 


sis sintácticos, y de haber abierto una perspectiva nueva y fecunda, al 
definir las teorías científicas simplemente como clases de modelos. 
Sin embargo, van Fraassen diverge de Suppes por la manera concre- 
ta en que concibe un modelo científico: en lugar de definirlo como 
una estructura determinada mediante la teoría de conjuntos, van 
Fraassen propone concebir los modelos como “trayectorias” o “re- 
giones” en un espacio de estados —idea que toma del lógico holandés 
E.W. Beth— . A partir del comienzo de los años setenta, generaliza 
y desarrolla las ideas de Beth, ilustrándolas con ejemplos tomados 
de la física. Expone más sistemáticamente su metodología de recons- 
trucción de teorías y la epistemología asociada a ella algunos años 
más tarde en su libro The Scientific Image (1980) [La imagen cien- 
tífica ]. 

La noción de espacio de estados proviene directamente de la fí- 
sica. Recordemos que en termodinámica, por ejemplo, se considera 
que el estado de un sistema físico está completamente determina- 
do por una tríada ordenada de números reales < p, v, t >, que 
representan respectivamente los valores de las magnitudes presión, 
volumen y temperatura. En general, en las teorías físicas, los estados 
de un sistema físico se identifican por puntos en un sistema de coor- 
denadas con tantas dimensiones como componentes determinan el 
estado. A cada tipo de sistema físico corresponde así un espacio de 
estados, que es el conjunto de todas las secuencias posibles de n 
elementos (n = 3 para el ejemplo de la termodinámica). Los estados 
posibles del sistema físico son “puntos” en este “espacio”. La tarea de 
los axiomas propios de una teoría dada consiste, entonces, en impo- 
ner constricciones al conjunto de secuencias lógicamente posibles, 
fijando las secuencias que son aceptables y las que no lo son. Las 
secuencias aceptables representan los modelos admitidos por la teo- 
ría. La analogía con el procedimiento de Suppes es evidente: úna 
teoría física no es de hecho nada más que un conjunto constituido 
por un gran número de modelos; la diferencia reside en el hecho de 
que los modelos son concebidos en este caso como trayectorias (o 
regiones) en un espacio de estados. 

Lo que distingue la reconstrucción de las teorías en términos 
de un predicado conjuntista o de la determinación de un espacio 
de estados es más metodológica que epistemológica. Se trata de dos 
procedimientos para hacer más transparente la estructura interna 
de las teorías científicas, sin que haya una divergencia profunda en 
. cuanto a la “esencia” de las teorías, que es siempre la misma, a saber, 
un conjunto de modelos. Cada uno de estos procedimientos tiene 



126 El desarrollo moderno de la filosofía de la ciencia (1890-2000) 

sus ventajas y sus inconvenientes. El método de espacios de estado 
es ciertamente más cercano a la manera en que las teorías se pre- 
sentan en los manuales de física moderna, al menos en el caso de la 
mecánica clásica y la mecánica cuántica. Esto resulta menos evidente 
en el caso de otras teorías, incluso en física (por ejemplo, en el caso 
de la teoría de la relatividad, como van Fraassen lo reconoció más 
tarde) y, sobre todo, no lo es en lo absoluto en el caso de las teorías 
cuyos conceptos fundamentales ncTson magnitudes, sino relaciones 
o propiedades “cualitativas” —como en las teorías de la química, la 
biología y las ciencias sociales—. Por esta razón, el método de defini- 
ción de los modelos por medio de un predicado conjuntista parece 
ser más universalmente aplicable. Tiene además la ventaja de hacer 
inmediatamente transparente la estructura formal del "compromiso 
ontológico” de cada teoría, caracterizando explícitamente sus domi- 
nios de entidades básicas en las condiciones que define el predicado 
conjuntista (como ya hemos visto en el caso de “la teoría de la fami- 
lia”). Pero se trata más de una diferencia en la práctica reconstructi- 
va de los filósofos de la ciencia que de una diferencia de principio. 

Van Fraassen se muestra más tajante que Suppes y sus colabora- 
dores en el desarrollo de la interpretación epistemológica acerca de la 
manera en que los modelos que constituyen una teoría científica se 
relacionan con la realidad empírica. Hemos visto que en Suppes y 
los representacionalistas más próximos a él se detecta implícitamen- 
te una suerte de operacionalismo sofisticado. En cambio, la posición 
epistemológica de van Fraassen es más explícita y radical. Defiende 
una variante particular de instrumentaüsmo que describe como un 
“empirismo constructivo”, y que es completamente antirrealista. El 
empirismo constructivo tiene consecuencias notables sobre un gran 
número de temas tradicionales importantes de la filosofía de la cien- 
cia, tales como la causalidad, la naturaleza de la explicación cientí- 
fica y la de las leyes o de la base empírica. Van Fraassen explicitó 
estas consecuencias no sólo en The Scientific Image , sino en obras 
posteriores como Laws and Symmetry (1989) [Leyes y simetría]. 

Distingue en cada teoría la parte "teóricamente pura” de aquella 
que concierne a las aserciones empíricas. La parte pura determina 
el tipo de modelos con los cuales el científico se compromete a tra- 
bajar; la parte empírica añade aquellos dominios de la experiencia a 
los que presuntamente son aplicables los modelos de la teoría. Esto 
recuerda mucho la distinción introducida por Adams (véase supra, 
p. 117) entre la clase M de modelos y la clase I de aplicaciones in- 
tencionales. Pero van Fraassen evítala dificultad de la “justificación 



Concepciones modelísticas y emparentadas (1970-2000) 


127 


circular” que hemos constatado al exponer las ideas de Adams, se- 
ñalando que estas aplicaciones son concebidas como subestructuras 
de las estructuras que constituyen los modelos. Estas subestructuras 
representan nuestras observaciones empíricas, en tanto que el con- 
tenido empírico de la teoría consiste en la aserción de que dichas 
subestructuras pueden ser efectivamente subsumidas bajo un mode- 
lo completo de la teoría, determinado por las leyes. En este proceso 
de subsunción, la teoría postula la existencia de entidades no obser- 
vables, puramente teóricas, las cuales, en su interacción (postulada 
por las leyes de los modelos teóricos) con las entidades observa- 
bles a las que se refieren las subestructuras observables, explican 
los fenómenos que.de hecho observamos. Si la aserción según la 
cual las subestructuras observables pueden ser subsumidas bajo un 
modelo de la teoría queda confirmada por nuestras observaciones y 
experimentos, en tal caso podemos decir que hemos “salvado los fe- 
nóménos” (he aquí una reminiscencia de la metodología de Duhem) 
y que la teoría es empíricamente adecuada . La tarea de las ciencias 
teóricas consiste en mostrarlo. 

Para van Fraassen, es necesario distinguir entre la verdad de una 
teoría y su adecuación empírica . No es un “instrumentalista puro”, 
puesto que admite un sentido (lógicamente impecable) en que se 
puede suponer que los modelos de una teoría son literalmente “ver- 
daderos en relación con el mundo real”. Pero es un instrumentalista 
en un sentido más amplio, ya que niega que se pueda justificar cien- 
tíficamente esta suposición. Además, la considera como desprovista 
de pertinencia para la aceptación de una teoría científica, en tanto 
los modelos están siempre subdeterminados en relación con la obser- 
vación (de hecho, retoma la tesis de Quine de la subdeterminación 
empírica de las teorías, aunque dentro de un marco conceptual dis- 
tinto). La única cosa que cuenta para la buena marcha de la ciencia 
es mostrar que sus teorías son empíricamente adecuadas. Es por 
esta razón que van Fraassen define su posición como una suerte de 
empirismo constructivo: 


Empleo el adjetivo constructivo , para indicar mi concepción según la 
cual la actividad científica es una actividad de construcción y no de 
descubrimiento: una construcción de modelos que deben ser adecua- 
dos a los fenómenos, y no un descubrimiento de la verdad de lo que es 
inobservable . 5 

5 B. van Fraassen, The Scientific Image, p. 5. 



128 El desarrollo moderno de la filosofía de la ciencia ( 1890-2000 ) 


Evidentemente, la epistemología del empirismo constructivo de- 
pende esencialmente de la noción de observabilidad, ya que son las 
subestructuras observables de los modelos lo que nos permite de- 
cidir si una teoría propuesta es empíricamente adecuada o no. Nos 
hace falta un criterio preciso para distinguir los objetos observado- 
nales de los objetos no observacionales; si no, las tesis del empirismo 
constructivo serían vagas y, sobre todo, no se sabría cómo aplicarlas 
a la reconstrucción efectiva de teorías concretas. Ahora bien, he- 
mos visto ya las grandes dificultades que tuvieron los? filósofos de la 
ciencia de la fase clásica para formular una distinción tajante entre 
el nivel observacional y el nivel teórico en el discurso científico, así 
como las críticas decisivas de los filósofos historicistas en contra de 
la idea de conceptos puramente observacionales. Van Fraassen fue 
más o menos consciente de estas dificultades (aun cuando, sorpren- 
dentemente, no las discutiera muy a fondo) y propuso un criterio 
de observabilidad estrictamente antropomórfico. Este criterio pre- 
tende tener un valor estrictamente epistemológico (sobre lo que no- 
sotros, en tanto que miembros de la especie Homo sapiens , estamos 
o no capacitados para saber) y no ontológico : en tanto que organis- 
mos biológicos dotados de “instrumentos de detección” particulares 
(nuestros órganos sensoriales), hay cosas que podemos observar y 
otras que definitivamente son inobservables —y de estas últimas hay 
que abstenerse de afirmar nadar-. 

El criterio de observabilidad propuesto por van Fraassen no es 
muy preciso (un objeto que, por su naturaleza, es detectable sola- 
mente mediante un microscopio electrónico ¿debe ser considerado 
“observable para el Homo sapiens”?); pero el problema principal es 
que, en las teorías un tanto desarrolladas, es poco verosímil postular 
que -las sub estructuras destinadas a constituir la base empírica con- 
tengan nociones puramente observacionales en el sentido de van 
Fraassen. Se trata más bien, como él mismo reconoció en Laws and 
Symmetry , de “modelos de datos” (expresión que toma de Suppes), 
es decir, de^ estructuras conceptuales ya muy sofisticadas en relación 
con lo que se puede imaginar como “directamente observable”. Por 
ejemplo, las subestructuras que constituyen la base empírica de la 
mecánica clásica son, sin duda, subestructuras cinemáticas, lo que 
quiere decir que están constituidas, entre otras cosas, por la noción 
de tiempo continuo y de distancia, que es una magnitud dos veces 
diferenciable en el sentido del cálculo diferencial; sería muy extra- 
ño suponer que las nociones de continuidad y de diferenciabilidad 
aquí requeridas correspondan al sentido antropomórfico de obser- 



Concepciones modelisticas y emparentadas ( 1970-2000) 129 


vabilidad postulado por van Fraassen. En breve, con su empirismo 
constructivo, este investigador presentó la versión más fuerte y la 
más sistemáticamente desarrollada de antirrealismo de los últimos 
decenios de la filosofía de la ciencia; sin embargo, en la medida 
en que la noción de observabilidad que le es crucial continúe tan 
poco articulada, la base epistemológica del empirismo constructivo 
seguirá siendo ella misma problemática. 

Frederick Suppe es otro de los representantes de la versión seman- 
ticista del modelismo, que intenta encontrar una “vía intermedia” 
entre el realismo y el antirrealismo en epistemología. Ya en 1967, en 
su tesis doctoral intitulada The Meaning and Use of-Models in Math- 
ematics and the Exact Sciences [El significado y uso de los modelos 
en matemáticas y las ciencias exactas], tomó de Suppes la noción de 
modelo, aunque reformulándola en términos de espacios de estados 
(independientemente de van Fraassen). De manera más sistemáti- 
ca, Suppe desarrolló sus ideas en su obra principal, The Semantic 
Conception of Theories 'and Scientific Realism (1989) [La concepción 
semántica de las teorías y el realismo científico]. El aparato formal 
de reconstrucción de las teorías que Suppe propuso es casi idéntico 
al de van Fraassen: una teoría no es mas que un sistema relacional 
formado por dos componentes, un dominio que contiene todos los 
espacios de estados lógicamente posibles de los sistemas estudiados, 
y cierto número de relaciones entre estados, determinadas por los 
axiomas de la teoría, que especifican las trayectorias y regiones fí- 
sicamente posibles. Para Suppe, “físicamente posible” quiere decir 
“causalmente posible”. 

Usando una terminología análoga a la de Adams, Suppe descri- 
be la base empírica de una teoría como un “alcance pretendido” 
(intended scope) de la experiencia, constituido por lo que él llama los 
“datos duros” (hará data). Si bien concibe la parte puramente teórica 
de una teoría de una manera muy similar a la de van Fraassen, difie- 
re, en cambio, en la interpretación de los “datos duros” que constitu- 
yen el alcance pretendido. No es necesario interpretarlos en el senti- 
do de “directamente observable”. Según Suppe, la dicotomía “qbser- 
vacional/teórico” no tiene papel alguno en la epistemología. Debe 
ser reemplazada por una distinción, relativa a una teoría dada , entre, 
por un lado, los datos no problemáticos para la teoría en cuestión (los 
datos “duros”) y, por otro, las hipótesis teóricas características de la 
teoría, que son confrontadas con los datos no problemáticos. 

Los “datos duros” de Suppe son relativos no sólo a uña teoría 
particular, sino también en el sentido de que, incluso dentro de la 



130 El desarrollo moderno de la filosofía de la ciencia (1890-2000) 


teoría en cuestión, pueden revisarse en todo momento. La razón es 
que las estructuras que constituyen la base empírica de una teoría 
son siempre estructuras conceptuales muy abstractas e idealizadas. 
Suppe asigna un lugar importante a la- noción de idealización en las 
ciencias empíricas. Los datos son obtenidos mediante un proceso 
muy complejo, seleccionando algunos parámetros de entre otros 
para la descripción de los fenómenos (lo que constituye la esencia 
del proceso de la idealización); está selección siempre puede poner- 
se en duda en el seno mismo de la teoría si las cosas no van como 
se esperaba o si hemos sido capaces de elaborar métodos de análisis 
más avanzados. 

En la concepción de Suppe, una teoría es empíricamente verdadera 
(o adecuada) si los datos duros coinciden con los modelos de la teoría 
o, más exactamente, si los sistemas físicos que constituyen el alcan- 
ce pretendido coinciden con los espacios de estados, causalmente 
posibles determinados por las leyes teóricas (admitiendo siempre 
algunas idealizaciones). Pero dado que hemos visto que estos “datos 
duros” son, ellos mismos, estructuras abstractas e idealizadas, cons- 
truidas, no podemos afirmar que una teoría empíricamente verdade- 
ra en este sentido refleje la “realidad tal cual es”. La epistemología 
de Suppe es, en este punto, muy similar a la de van Fraassen. Sin 
embargo, difiere en un aspecto importante. La condición de ade- 
cuación entre datos y espacios de estados causalmente posibles es, 
de hecho, sólo Una condición necesaria, pero no suficiente por sí 
misma, para el buen funcionamiento de una teoría empírica. Suppe 
añade lo que califica de requisito “antinominalista”: los parámetros 
seleccionados por la descripción de los datos duros deben corres- 
ponder a clases naturales , y no ser escogidos ad hoc . Y la noción de 
“clase natural” no es antropomórfica; muy al contrario, se supone 
que corresponde a aspectos de la realidad independientes de la ob- 
servación y de la teorización humanas. El postulado según el cual los 
parámetros seleccionados para determinar los datos corresponden 
a clases natijirales nos permite justificar la suposición (contrafáctica) 
según la cual “el mundo real sería exactamente como lo describe la 
teoría, caso de que las únicas clases naturales pertinentes fueran las 
que corresponden a los parámetros escogidos”, es decir, si pudié- 
ramos eliminar con éxito toda idealización (lo que siempre resulta 
imposible en la práctica). Es por esta razón que Suppe describe su 
propia posición como un “cuasi realismo” (en contraposición con 
el empirismo radical de van Fraassen). Sin embargo, esta posición 
tiene también su propia dificultad, análoga a la que encontramos 



Concepciones modelisticas y emparentadas ( 1970-2000 ) 


131 


en van Fraassen en relación con la observabilidad: ¿de qué criterios 
disponemos para distinguir los parámetros que designan clases na- 
turales de aquellos que no las designan? Parece que los únicos crite- 
rios factibles en una disciplina científica cualquiera (si no queremos 
apoyarnos en una metafísica esencialista de clases naturales) son los 
que la teoría misma proporciona. Por tanto, parece que el “cuasi 
realismo” de Suppe es aún más débil de lo que el prefijo “cuasi” 
connota y que corre el riesgo de ser simplemente un seudo realismo. 

El tercer protagonista de las concepciones semanticistas, Ronald 
Giere, ha desarrollado su propia versión de esta concepción en el 
marco de un programa metacientífico más amplio que el de los dos 
autores precedentes —el de una perspectiva cognitivista general—. En 
el curso de los años, resultó evidente para Giere que no existe nin- 
guna diferencia esencial entre la filosofía de la ciencia y las ciencias 
cognitivas, teniendo ambas disciplinas el mismo objeto de estudio 
y (potencialmente) los mismos métodos de investigación. (Se podría 
intepretar esta fusión como una manera concreta de comprender el 
proyecto de Quine de una “epistemología naturalizada”.) Esta ten- 
dencia hacia el cognitivismo ya se nota en su primera obra sistemá- 
tica, Explaining Science (1988) [Explicando la ciencia], pero se hace 
aún más evidente en su segundo tratado, Cognitive Models of Science 
(1992) [Modelos cognitivos de la ciencia], 

Al igual que en los otros autores referidos en este capítulo, el 
punto de partida de Giere descansa en el “núcleo duro” de una teo- 
ría como conjunto de modelos. Sin embargo, a diferencia de los 
otros representantes del modelismo, él no quiere limitarse a una 
reconstrucción formal determinada de los modelos en cuestión —ni 
en tanto que estructuras conjuntistas, ni en tanto que espacios de 
estados—. Su concepto de “modelo teórico” es extremadamente am- 
plio (y también hay que decirlo: peligrosamente vago). Los modelos 
que constituyen las teorías científicas pueden ser, según él, todo tipo 
de entidades abstractas que normalmente se describen por medio 
de un lenguaje más o menos técnico, pero que a veces también pue- 
den ser determinadas por medios no lingüísticos (por ejemplo, grá- 
ficas, esquemas, mapas, etc.). La sola característica común a todos 
los modelos tomados en este sentido es que se trata de entidades 
abstractas, no empíricas o “mentales”, que son construidas y valida- 
das socialmente por una comunidad de científicos. 

Ahora bien, la función de estas entidades abstractas que llama- 
mos “modelos teóricos”, al menos en las ciencias empíricas, se com- 
pone (como en otras concepciones modelís ticas) de una representa- 



132 El desarrollo moderno de la filosofía de la ciencia ( 1890-2000) 


ción de ciertos aspectos de sistemas reales mediante algunas hipóte- 
sis teóricas que vinculan los modelos con la realidad y que afirman 
que un sistema real dado es parecido , en ciertos aspectos y en cierta 
medida, a un modelo construido en él discurso científico. Así, por 
ejemplo, por un lado tenemos un sistema real como el constituido 
por la Tierra, el Sol y la Luna, y, por otro, un modelo de la mecánica 
newtoniana tal como el descrito por tres partículas que se atraen 
mutuamente con una fuerza proporcional a la inversa del cuadrado 
de la distancia. La hipótesis que lanza aquí el científico es que ciertos 
aspectos del sistema Sol-Tierra-Luna (por ejemplo, sus posiciones y 
sus aceleraciones respectivas) son muy próximos al modelo de tres 
partículas con el tipo de fuerza descrito. 

Al igual que en Suppe, el instrumento conceptual de la idealiza- 
ción o la aproximación tiene un papel esencial en la concepción de 
Giere acerca de la relación entre los modelos teóricos y la realidad 
que se supone representan. Por supuesto, sí no estamos satisfechos 
con el grado de aproximación y/o de idealización constatado en la 
relación entre el sistema estudiado y el modelo propuesto, podemos 
cambiar de modelo, y construir otro tomando en cuenta algunos 
aspectos del sistema real que antes fueron ignorados y que nos con- 
ducen a grados de aproximación más adecuados. Pero es utópico su- 
poner que podremos alcanzar algún día una correspondencia exacta 
entre el modelo y la realidad. Esto es así en virtud de la naturaleza 
misma tanto del modelo como del objeto representado. 

De este pluralismo y este “imperfeccionismo” de la relación entre 
los modelos y los sistemas reales, Giere extrae una consecuencia más 
general sobre la naturaleza de las teorías científicas —consecuencia 
que no es el resultado de una argumentación lógica estricta, sino que 
es, a lo sumo, sugerida por la situación descrita: las teorías científicas 
son entidades irremediablemente vagas, sus condiciones de identi- 
dad no pueden fijarse con precisión—. Por ejemplo, es imposible 
decir lo que realmente tienen en común todos los modelos newtonia- 
nos. Tienen/ sin duda, un “aire de familia”, aunque esta semejanza 
es insuficiente para proporcionarnos una definición formal y uní- 
voca de la noción general de “modelo newtoniano”. La cuestión de 
saber si dos modelos propuestos para estudiar un mismo sistema 
pertenecen o no a la misma familia (por ejemplo, a la “familia new- 
toniana”) la deciden exclusivamente los miembros de la comunidad 
científica en un momento dado. Esto no significa que una semejanza 
objetiva pueda juzgarse de una manera correcta o incorrecta, sino 
que el conjunto de juicios de los científicos determina la cuestión de 



Concepciones modelísticas y emparentadas (1970-2000) 


133 


saber si la semejanza es suficiente. Esto es un aspecto basado en el 
hecho de que las teorías no sólo son construidas, sino que además 
son “socialmente construidas”. 6 Claramente, Giere introduce así un 
fuerte elemento pragmático en su concepción de la identidad de las 
teorías científicas. 

Sobre la base de esta concepción pragmática (que se aleja de 
los postulados más tradicionales del semanticismo), Giere adopta 
un tipo particular de “realismo”, al cual da el nombre de “realis- 
mo construcfivista” —en oposición al “empirismo constructivista” 
de van Fraassen— . Se trata de una concepción donde la dimensión 
“constructivista” es mucho más fuerte que la dimensión “realista”. 
En efecto, para Giere, la ciencia tiene un aspecto esencialmente 
constructivo —la construcción de modelos 1 —, y siempre habrá mo- 
delos diferentes para representar de manera alternativa el mismo 
sistema real. Existen, sin duda, unos modelos mejores que otros, y 
no podemos especificar esta diferencia apelando sólo a la “realidad”. 
No hay nada en el mundo que determine los aspectos “verdadera- 
mente esenciales” que uno debe representar por medio de los mode- 
los, ni el grado de adecuación de una representación propuesta. La 
especificación de la diferencia entre “buenos” modelos y modelos 
“menos buenos” es una cuestión que remite en última instancia a 
intereses humanos, y estos intereses no son sólo epistémicos, sino 
también son prácticos. Esta constatación nos lleva a cierto relativis- 
mo, pero no a un relativismo radical: para poner un ejemplo del 
propio Giere, podemos circular por Nueva York de una manera más 
o menos adecuada con diferentes mapas/de la ciudad, pero no con 
un mapa de San Francisco. Esta diferencia nos permite comprender, 
según Giere, que la dosis de relativismo inherente a la pluralidad y a 
la imperfección sustancial de los modelos, en tanto que representa- 
ciones de la realidad, es compatible con cierta dosis de realismo: hay 
algo en la realidad que hace que dos planos diferentes de Nueva York 
puedan utilizarse para circular por la ciudad, y que al mismo tiempo 
hace que un plano de San Francisco sea completamente inservible. 

Ahora bien, el problema con este tipo de realismo “moderada- 
mente relativista” es que, en un análisis más fino, parece muy próxi- 
mo al antirrealismo (á la van Fraassen, por ejemplo). Los instru- 
mentalistas o los antirrealistas pueden muy bien aceptar que haya 
modelos más o menos adecuados a un cierto dominio de la expe- 
riencia, mientras que otros no ló son. Pero si no se es un poco más 

6 Cfr. R, Giere, Explaining Science, p. 86. 



134 El desarrollo moderno de la filosofía de la ciencia (1890-2000) 


preciso que Giere sobre la naturaleza de los sistemas reales que de- 
terminan, por medio de la relación de “semejanza suficiente”, que 
ciertos modelos son válidos y otros no, y si el propio criterio de 
“semejanza suficiente” se deja al arbitrio de la comunidad científica 
del momento, entonces el instrumentalista no se dejará impresionar. 
Como en el caso de Suppe, aunque por otras razones, el “realismo- 
constructivo” de Giere se revela , al fin peligrosamente próximo al 
pseudorealismo o a un verdadero instrumentalismo. 

5. El estructuralismo metateórico 

Sin duda, la concepción estructuralista de las teorías científicas for- 
ma parte de los enfoques que hemos englobado con la etiqueta co- 
mún de “modelismo”, ya que concede un lugar preeminente a la 
noción de modelo y está fuertemente inspirada en los trabajos de la 
escuela de Stanford. No puede considerarse como una simple con- 
tinuación del conjuntismo suppesiano, porque ha desarrollado un 
aparato conceptual de análisis de las ciencias empíricas mucho más 
complejo y sofisticado que el de Suppes y sus discípulos, intentando 
incorporar de forma sistemática aspectos importantes del análisis 
propuesto por autores historicistas como Kuhn y Lakatos (especial- 
mente el primero, quien reconoció —como hemos visto— sus afini- 
dades profundas con el estructuralismo, a pesar de las diferencias 
aparentemente insalvables “en la superficie”). 

Antes de que comencemos a exponer las ideas principales del es- 
tructuralismo que hemos calificado de “metateórico”, se hacen ne- 
cesarias algunas precisiones históricas y terminológicas para evitar 
enojosos malentendidos. El estructuralismo del que aquí se trata no 
tiene mucho que ver con el estructuralismo francés —corriente que 
marcó profundamente la filosofía y las ciencias humanas en Francia 
durante los años sesenta y setenta— . También tiene poco que ver con 
la manera “estructuralista” de practicar la lingüística y la interpreta- 
ción literaria, extendida hoy un poco por todos los lugares del mun- 
do. El único “estructuralismo” con el cual la concepción estructura- 
lista de la filosofía contemporánea de la ciencia tiene una afinidad 
metodológica es con el practicado en el estudio de los fundamentos 
de la matemática, sobre todo (aunque no únicamente) en la versión 
puesta en práctica por el grupo llamado Bourbaki sobre la recons- 
trucción conjuntista de las teorías matemáticas. Habrán de pasar va- 
rios años antes de que el programa de investigación metateórica que 
examinamos aquí lleve su nombre actual. El pionero de estos estu- 
dios, josepb U Sneed (Estados Unidos, nacido en 1938), no atribuye 



Concepciones modelísticas y emparentadas (1970-2000) 135 


ninguna denominación específica a la concepción formulada en su 
obra fundacional, The Logical Structure of Mathematical Physics (1971) 
[La estructura lógica de la física matemática]; solamente caracteri- 
za una parte de sus resultados como una “concepción de Ramsey 
modificada” ( emended Ramsey view). Sin embargo* esta descripción 
resulta completamente inadecuada o, en el mejor de los casos, se 
refiere a un aspecto bastante secundario de su concepción. El otro 
“fundador” del estructuralismo en filosofía de la ciencia, Wolfgang 
Stegmüller (Austria, 1923-1991), en su primera obra, Theorienstruk- 
turen und Theoriendynamik (1973) [Estructura y dinámica de teorías], 
consagrada a la nueva metateoría, retoma y desarrolla la concep- 
ción de Sneed, caracterizándola como una “concepción no enun- 
ciativa” ( non-statement view) de las teorías científicas —denominación 
un poco menos inadecuada que la precedente, pero aún bastante 
incompleta—. Es sólo hacia fines de los setenta que el lógico y filóso- 
fo israelí Yehoshua Bar-Hillel sugirió a Stegmüller describir su con- 
cepción como un tipo de estructuralismo, en razón de su semejanza 
(metodológica) con el estructuralismo del grupo Bourbaki en ma- 
temáticas. Stegmüller aceptó esta sugerencia y tituló su nueva obra 
programática The Structuralist View ofTheories (1979) [La concepción 
estructuralista de las teorías]. Si bien esta denominación no es total- 
mente satisfactoria, pues se presta a confusión y no captura todos 
los aspectos relevantes de esta nueva corriente, es, sin embargo, la 
que ha terminado imponiéndose y la que mantendré aquí. 

La aparición del übro de Sneed pasó casi totalmente desapercibi- 
da debido a su complejidad y a la novedad de sus ideas, aslcomo al 
nivel altamente técnico del aparato conceptual utilizado, pero tam- 
bién por su estilo expositivo, que se parece más a un informe de 
investigación que a un ensayo destinado a una amplia audiencia. Sin 
embargo, Stegmüller, en ese entonces conocido como representante 
de la filosofía clásica de la ciencia y en un momento de cuestiona- 
miento de la misma a causa de las dificultades inherentes a la “teoría 
de los dos niveles” (y a causa también de la lectura de Kuhn), com- 
prende el potencial de la obra de Sneed para resolver ciertas difi- 
cultades de principio que le preocupan. En Theorienstrukturen und 
Theoriendynamik , expone las ideas de Sneed de una manera más ac- 
cesible y propone aplicarlas al desarrollo de una nueva concepción 
de las teorías científicas: ésta debe permitir que se salga del callejón 
sin salida al que la concepción clásica había conducido a la filosofía 
de la ciencia, y “reconstruir racionalmente” las nociones y las tesis de 
Kuhn (y, en cierta medida, también las de Lakatos). La comunidad 



136 El desarrollo moderno de la filosofía de la ciencia (1890-2000) 


de epistemólogos, “clásicos” o “historicistas”, se empieza a interesar 
entonces por la nueva metodología propuesta por Stegmüller. 

De 1974 a 1976, Sneed colaboró estrechamente con Stegmüller en 
el instituto que éste dirigía en Munich, y con otros dos investigado- 
res, Wolfgang Balzer (Alemania, nacido en 1947) y el autor de estas 
líneas (Venezuela/España, nacido en 1946). Así toma forma el “pro- 
grama estructuralista de reconstrucción de las ciencias empíricas”, 
que se desarrolla y evoluciona gradualmente a partir de mediados 
de los años setenta para llegar a su punto culminante en la obra de 
Balzer, Moulines y Sneed, An Architectonic for Science (¡1987) [Una ar- 
quitectónica para la ciencia]. Tomaré esta obra como referencia para 
exponer aquí los principales elementos del estructuralismo. El pro- 
grama estructuralista puede ser caracterizado como un “programa 
abierto” en el sentido de que muchos de sus conceptos, principios y 
métodos han sido ampliados, modificados, revisados después de su 
aparición, conforme se iban encontrando dificultades internas (más 
o menos técnicas) en el aparato conceptual, malentendidos en su 
interpretación epistemológica general o insuficiencias en su aplica- 
ción a la reconstrucción de teorías concretas de disciplinas empí- 
ricas. Algunos de los desarrollos posteriores más importantes están 
reunidos en la compilación de Balzer y Moulines, Structuralist Theory 
of Science. Focal Issues , New Results (1996) [La teoría estructuralista de 
la ciencia. Temas centrales, nuevos resultados]. Muchos autores de 
todo el mundo han contribuido posteriormente a los; trabajos de lo 
que a veces se ha llamado “la escuela de Munich”. Hay que decir que 
los “estructuralistas” han tomado siempre muy en serio la conmina- 
ción a aplicar su metateoría a cuantos casos concretos y reales de 
teorías científicas sea posible. (En el momento en que escribo estas 
líneas, al menos unas cincuenta teorías de disciplinas científicas —de 
la física a la sociología pasando por la química, la biología, la psico- 
logía y la economía— han sido reconstruidas con todos los detalles y 
la precisión necesaria.) 7 

El aparato conceptual que los estructuralistas utilizan en sus aná- 
lisis y sus reconstrucciones es más complejo que el de las otras con- 
cepciones modelísticas que aquí se discuten. Este aparato emplea 

7 Para una lista detallada (aunque no exhaustiva) de contribuciones al programa 
estructuralista, véase la bibliografía establecida por W. Diederich, A. Ibarra y T. Mor- 
mann, “Bibliography of Structuralism” [Bibliografía del estructuralismo]. Un com- 
pendio de reconstrucciones de teorías particularmente características de disciplinas 
diversas ha sido reunido por W. Balzer, C.U. Moulines y J.D. Sneed en Structuralist 
Knowledge Representation: Paradigmatic Examples [Representación estructuralista del 
conocimiento: ejemplos paradigmáticos]. 



Concepciones modelísticas y emparentadas ( 1970-2000) 137 


instrumentos formales bastante técnicos de la teoría de conjuntos 
y de otras ramas de las matemáticas. Lejos, de provenir (como lo 
han sugerido algunos críticos) del deseo absurdo de hacer más com- 
plicadas las cosas de lo que son, esta complejidad formal viene del 
reconocimiento de que los objetos de estudio (las teorías científicas 
y las relaciones que existen entre ellas) son, en general, entidades 
ellas mismas muy complejas y que, si uno no diera cuenta de esta 
complejidad, se caería en una visión demasiado simplista o vaga de 
la estructura de las ciencias empíricas. Sin embargo, intentaremos 
dar un vistazo a los elementos esenciales de la metodología estruc- 
turalista sin sobrecargar de detalles formales y desde la perspectiva 
más “intuitiva” posible. 

El estructuralismo debe su nombre a la idea básica, común a los 
otros enfoques modelísticos, según la cual la manera más convenien- 
te de interpretar la “esencia” de una teoría científica no consiste en 
recurrir a un conjunto de proposiciones, sino a la agrupación de 
tipos diferentes de estructuras complejas , ellas mismas compuestas de 
estructuras más simples. Las estructuras más simples que constitu- 
yen una teoría son los modelos, concebidos (en la tradición Tarski- 
McKinsey-Suppes) como tupias de la forma: 

. . . , JD mi R\ , . * • } R~n ^ > 

donde las A representan los “dominios base” y las R{ son relacio- 
nes construidas (en el sentido de la teoría de conjuntos) sobre los. 
dominios base. Estos fijan “la ontología”,,es decir, los conjuntos de 
objetos admitidos por la teoría como “reales”. Las relaciones fijan las 
relaciones admitidas entre los objetos de estos diversos conjuntos; en 
las teorías un tanto “avanzadas” estas relaciones serán generalmente 
funciones numéricas, es decir, magnitudes. Los dominios y las re- 
laciones específicas de una teoría particular son caracterizadas por 
cierto número de condiciones formales que determinan el “marco 
conceptual” de la teoría; por ejemplo, podremos especificar que el 
dominio D\ debe ser un conjunto finito de objetos, mientras que 
el dominioDg debe ser un continuo, que la relación Ri debe ser 
una relación simétrica y transitiva o que la relación R 2 debe ser una 
función dos veces diferenciable sobre los números reales, y así su- 
cesivamente. Cuando todas estas condiciones formales del “marco 
conceptual” son satisfechas, se dice que la estructura en cuestión es 
un modelo potencial de la teoría. Es “potencial” en el sentido de que 
fija un marco posible para concebir la realidad sin que tengamos 



138 El desarrollo moderno de la filosofía de la ciencia ( 1890-2000) 


aún la garantía de que sirva para representar algunos aspectos sus- 
tanciales de ésta, construir explicaciones o hacer predicciones. Las 
condiciones estipuladas son puramente a priori. Para que la estruc- 
tura en cuestión sea no sólo un modelo potencial, sino también un 
modelo actual , es necesario que, además de sus “condiciones-marco”, 
satisfaga "leyes de la naturaleza”, es decir, ciertos axiomas en el sen- 
tido propio del término. Puesto que el estructuralismo no defiende 
una concepción proposicional ,dé las teorías, no considera esencial 
decidir qué formulación concreta de estos axiomas se debe escoger; 
habrá siempre un número indeterminado de conjuntos diferentes 
de axiomas propios que determinan la misma clase de modelos ac- 
tuales; sin embargo, es importante, de una manera o de otra, fijar la 
clase de modelos con los cuales se quiere “decir alguna cosa sustan- 
cial sobre el mundo”. 

La identificación de una teoría cualquiera consiste pues, prime- 
ramente, en fijar el conjunto de sus modelos potenciales y actuales. 
Hasta ahí la metodología reconstructiva del estructuralismo no se 
distingue esencialmente de los otros enfoques modeKsticos, sobre 
todo de la metodología de la escuela de Stanford (si bien la primera 
subraya la necesidad de distinguir claramente entre lo que corres- 
ponde al marco conceptual a priori y lo que corresponde a las leyes 
sustanciales con contenido empírico). Sin embargo, esto no es más 
que el primer paso en la identificación de una teoría. Lina tesis cen- 
tral del estructuralismo es justamente que las teorías empíricas (al 
contrario de las puramente matemáticas) están generalmente cons- 
tituidas por más elementos que los modelos potenciales y actuales. 
Existen al menos otros cuatro componentes, que son esenciales para 
la correcta comprensión de su funcionamiento, para determinar la 
identidad de una teoría. 

1) Los modelos (potenciales o actuales) de una teoría cualquiera 
no aparecen aislados los míos de los otros: están vinculados por cier- 
tas condiciones (generalmente implícitas) que constriñen los com- 
ponentes de cada modelo (por ejemplo, los valores de una función 
determinada) en función de componentes de otros modelos. Desde 
un punto de vista formal, se trata aquí de condiciones de segun- 
do orden (de condiciones sobre los modelos y no de condiciones en 
los modelos). El término utilizado para estas condiciones es el de 
“condiciones de ligadura” (constraints en inglés, Nebenbedingungen 
en alemán). Ejemplos de tales condiciones de ligadura, familiares a 
estudiantes de física, son los principios de invariancia. Las combina- 
ciones de modelos que no satisfacen estas restricciones o condicio- 



Concepciones modelísiicas y emparentadas ( 1970-2000) 139 


"nes de ligadura quedan simplemente excluidas de la identidad de la 
teoría. 

2) Las teorías mismas no son entidades aisladas las unas de las 
otras. Esto quiere decir que los modelos de una teoría están vincu- 
lados no sólo a otros modelos de la. misma teoría, sino igualmente 
a modelos de teorías diferentes. Por ejemplo, es esencial saber, para 
el buen fimcionamiento de la termodinámica, que sus modelos em- 
píricamente válidos están vinculados de una manera determinada 
a modelos de la hidrodinámica. Estos vínculos interteóricos ( links en 
inglés, Bánde en alemán) pertenecen asimismo a la “esencia” de una 
teoría empírica. 

3) En general, hay que distinguir dos niveles conceptual y meto- 
dológicamente diferentes en el seno de una misma teoría: el de los 
conceptos que son específicos a la teoría en cuestión y que pueden ser 
determinados solamente si se presupone la validez de la teoría, y el 
de aquellos conceptos que provienen “de fuera”, generalmente de 
otras teorías “subyacentes”. Los primeros pueden ser calificados de 
T-teóricos en relación con la teoría T, los segundos de T-no-teóricos. La 
tupia de conceptos T-no-teóricos constituye evidentemente una subes- 
tructura de un modelo potencial de T. El conjunto de estas sub- 
estructuras recibe el nombre de “conjunto de modelos potenciales 
parciales”. Desde un punto de vista intuitivo, este conjunto constitu- 
ye el marco conceptual de los datos que supuestamente confirman o 
desconfirman la teoría, dado que los conceptos que los constituyen 
son independientes de la teoría en cuestión. Esta distinción entre 
dos niveles conceptuales podría ser interpretada como una remi- 
niscencia de la teoría de los dos niveles (teórico/observacional) de 
la filosofía clásica de la ciencia. Pero tiene, de hecho, un sentido 
completamente diferente: la distinción estructuralista entre concep- 
tos T-teóricos y T-no-teóricos no es meramente semántica (y, menos 
aún, sintáctica); no apela a la posibilidad de una “observación direc- 
ta” y tampoco es universal (es decir, la misma para todas las teorías 
científicas, como cuando se postula un “lenguaje observacional” co- 
mún a todas las ciencias), sino “local”, es decir, relativa a cada teoría. 
Lo que es T-teórico con respecto a una teoría puede ser T-no-teórico 
con respecto a otra. Por ejemplo, las magnitudes dinámicas, masa y 
fuerza, son T-teóricas en la mecánica, pero T-no-teóricas en la ter- 
modinámica. 

4) Toda teoría empírica, que quepa tomar en serio, es aproxima- 
tiva. La aproximación puede ser cualitativa o cuantitativa y puede 
variar según el tipo de aplicación que se tenga en mente; pero en 



140 El desarrollo moderno de la filosofía de la ciencia (1890-2000) 

ningún caso es un “modelo exacto” lo que se utiliza para represen- 
tar la experiencia, sino más bien un conjunto “borroso” de mode- 
los, determinado dentro de unos límites admisibles de “emborrona- 
miento”. Para definir estos “conjuntos borrosos”, los estructuralistas 
(inspirados en este punto por Ludwig) recurrieron a la noción topo- 
lógica de uniformidad . Estas uniformidades de modelos también per- 
tenecen, de modo esencial, a la identidad de las teorías empíricas. 

Lá combinación coherente dé los seis conjuntos de estructuras 
que acabamos de describir (el conjunto de los modelos potencia- 
les, el de los modelos actuales, el de los modelos potenciales par- 
ciales, el de las condiciones de ligadura, el de los vínculos interteó- 
ricos y la estructura de aproximación determinada jpor una unifor- 
midad) constituye lo que podemos llamar el núcleo (formal) de una 
teoría, simbolizado por K. Se puede decir que K sintetiza la iden- 
tidad formal de la teoría. Es formal en el sentido de que todos sus 
componentes pueden ser definidos, en principio, con toda precisión 
usando instrumentos formales de la teoría de modelos, la teoría de 
conjuntos y la topología. Sin embargo, otra tesis básica del estructu- 
ralismo es que esta estructura de estructuras no agota todo lo que 
hay que conocer de una teoría para saber de qué teoría se trata y 
cómo funciona. La razón de ser de una teoría empírica consiste justa- 
mente en el hecho de que todo este aparato formal supuestamente es 
aplicable a alguna cosa externa a él, a fenómenos que se supone exis- 
ten independientemente del aparato formal. Este “mundo exterior” 
está descrito por los estructuralistas, que se apoyan en la noción 
introducida por Adams como el “dominio de aplicaciones intencio- 
nales”, simbolizado por I. Como Adams lo había señalado ya, debe 
ser considerado asimismo como perteneciente a la identidad de la 
teoría, puesto que sin él no sabríamos con qué objeto fue construida. 

Ahora bien, el estructuralismo hace tres suposiciones epistemoló- 
gicas fundamentales sobre la manera adecuada de concebir este do- 
minio L Primeramente, no se trata ciertamente de la “realidad pura” 
ni de la “experiencia pura” —suponiendo que estas expresiones ten- 
gan sentido—. I está conceptualmente determinado por conceptos 
de los que ya se dispone antes de que la teoría empiece a funcionar. 
Son conceptos que, con toda seguridad, provienen del “exterior”, 
pero que, en cierto sentido, también pertenecen a la teoría. Para 
decirlo brevemente, se trata de conceptos T-no-teóricos en el senti- 
do antes explicado. Su combinación coherente forma subestructu- 
ras de modelos potenciales de la teoría o, dicho en otros términos, 
el dominio I debe ser concebido como un subcojunto del conjunto 



Concepciones modelisticas y emparentadas ( 1970-2000) 141 


de los modelos potenciales parciales. En segundo lugar, las aplica- 
ciones intencionales de una teoría dada no pretenden referirse a la 
totalidad del universo o de la experiencia. Son múltiples y locales. 
Representan “pequeñas partes” de la experiencia humana. Además, 
cada teoría tiene su dominio particular de aplicaciones intenciona- 
les, pudiendo coincidir los dominios de teorías diferentes de manera 
total o parcial, estar en relaciones mutuas o no tener absolutamente 
ninguna relación entre sí. Finalmente, concibiendo I como un sub- 
conjunto del conjunto de modelos potenciales parciales, no damos 
más que una caracterización bastante débil de este dominio. Se trata 
solamente de una condición necesaria aunque apenas suficiente de 
pertenencia a I. La determinación unívoca completa de I escapa, 
por principio, al análisis formal. La razón es que este dominio es 
una suerte de entidad fuertemente dependiente de factores pragmá- 
ticos e históricos que, por su naturaleza misma, no son determina- 
bles formalmente. Por consiguiente, en la identidad esencial de toda 
teoría empírica hay ün componente irreductiblemente pragmático- 
histórico, no formalizable. Nos enfrentamos aquí a los límites del 
análisis formal de las ciencias empíricas —lo que no quiere decir, ob- 
viamente, que no se puedan obtener valiosos resultados en este gé- 
nero de análisis al considerar los aspectos que sí son formalizables— . 

En un primer análisis, pues, una teoría es, desde el punto de vista 
estructur alista, un par < K,I >, donde K es un núcleo formal e 
I un dominio de aplicaciones intencionales. Este par está asociado 
a la “afirmación empírica” según la cual I puede ser efectivamente 
(o aproximadamente) subsumido bajo K— esto es, en lo que la- teoría 
“dice acerca del mundo”—. Esta definición de la noción de teoría em- 
pírica recuerda, sin duda, la de Adams, para quien una teoría tam- 
bién es un par < MJ > asociado a una “pretensión empírica”; sin 
embargo, como podemos ver, el análisis estructur alista se diferencia 
bastante del de Adams, puesto que, en el caso de los estructuralistas, 
M es sólo uno de los componentes del núcleo y la pretensión empíri- 
ca no postula simplemente que I es un subconjunto de M, sino que 
existe una relación bastante más compleja entre los dos —la relación 
de subsunción— . 

Acabamos de decir que el estructuralismo concibe una teoría 
como un par < K,I > “en un primer análisis”. De hecho, el estructu- 
ralismo propone concebir las teorías “normales” como estructuras 
más complejas aún. La razón es que mi par del tipo < K,I > repre- 
senta sólo el caso más simple que uno puede imaginar de teoría cien- 
tífica —aquél en el que la parte “sustancial” de la teoría está formada 



142 El desarrollo moderno de la filosofía de la ciencia ( 1890-2000) 


sólo por una única ley—. Estas unidades simples son llamadas “ele- 
mentos teóricos”. No pueden constituir una buena representación 
de una teoría empírica más que en los casos de disciplinas poco 
desarrolladas. Pero en teorías más avanzadas (como lo son prácti- 
camente todas las ciencias naturales y la mayor parte de las socia- 
les), se puede uno convencer fácilmente de que se trata más bien de 
“agrupaciones” de un mayor o menor número de elementos teóri- 
cos, puesto que contienen variqsjleyes, de distinto grado de genera- 
lidad, subordinadas unas a otras. La denominación específica para 
estas agrupaciones es la de “red teórica”. Estas unidades reflejan el 
hecho de que las teorías “normales” de las ciencias empíricas tienen 
la forma de estructuras altamente jerarquizadas (“piramidalmente”, 
si uno considera la imagen gráfica de las mismas). Habitualmente, 
hay una sola ley fundamental (en general, de contenido esquemáti- 
co) que constituye el elemento teórico en el vértice más alto de la 
red y, debajo de él, una serie de leyes (y de condiciones de ligadura) 
cada vez más especializadas (constituyendo cada una un elemento 
teórico con su propio dominio de aplicaciones intencionales), que 
provienen directa o indirectamente de la aplicación de un proceso 
que podemos llamar de “especificación” (por ejemplo, especifica- 
ción de las relaciones entre las magnitudes que aparecen en la ley 
fundamental, concretización de parámetros o de “constantes”, res- 
tricción de las aproximaciones admitidas, etc.). La reconstrucción 
estructuralista detallada de docenas de ejemplos de teorías de las 
disciplinas más variadas ha mostrado que es esta forma de red teó- 
rica la que corresponde mejor al concepto intuitivo de teoría que 
encontramos en los manuales científicos. Para dar un solo ejemplo, 
que ha sido reconstruido en detalle por los estructuralistas, la teoría 
a la que habitualmente llamamos “mecánica newtoniana de partí- 
culas” consiste en una red en la que el elemento teórico de arriba 
—en el vértice más alto— está constituido por el segundo principio 
de Newton, más un gran número de especiaüzaciones sucesivas, las 
primeras aún muy generales por sus contenidos y sus dominios de 
aplicación (tales como el principio de acción y reacción o el postula- 
do según el cual las fuerzas ; dependen de las distancias), hasta llegar 
a leyes muy particulares, tales como la ley de Hooke para los resor- 
tes . 8 A pesar de esta complejidad, lo que hace que una red pueda 

8 El lector podrá encontrar la reconstrucción (casi) completa de la red de la 
mecánica newtoniana, así como la red de otras teorías de la física y la química, 
en An Architectonic for Science. Otras redes de teorías físicas, biológicas, psicológicas, 
económicas, etc., han sido reconstruidas en detalle por otros autores. 



Concepciones modelísticas y emparentadas (1970-2000) 


143 


ser concebida como una unidad, epistemológica y metodológica, es, 
en primer lugar, el hecho de que dispone de un marco conceptual 
común (formalmente, que los modelos potenciales sean los mismos) 
y, en segundo lugar, que todos los elementos teóricos que la com- 
ponen en sus diversos niveles son siempre construibles como espe- 
cializaciones (en un sentido que se puede definir formalmente sin 
ambigüedad) del elemento teórico en lo alto de la red. 

Hasta aquí, hemos visto lo esencial del concepto estructuralista 
de teoría empírica desde un punto de vista estrictamente sincrónico . 
Ahora bien, este concepto se puede “poner en marcha” y represen- 
tar aspectos diacrónicos de las teorías científicas (inspirándose en las 
ideas de Kuhn de una manera indirecta —aunque aceptada por el 
propio Kuhn—). En el análisis estructuralista, una teoría en el sen- 
tido diacrónico no es simplemente una red teórica que preserva su 
forma original en el curso de la historia; al contrario, hay que tomar 
en cuenta el hecho de que las redes teóricas están normalmente 
sujetas a modificaciones más o menos importantes en el curso de 
su desarrollo histórico, sin perder sin embargo lo esencial de su 
identidad. Una teoría, desde el punto de vista diacrónico, es una 
red que evoluciona o, para ser más precisos, una secuencia de redes 
en el tiempo vinculadas por condiciones determinadas. La entidad 
diacrónica que resulta de este género de proceso ha sido denomina- 
da por los estructuralistas “evolución teórica”. En cierto sentido, la 
noción estructuralista de evolución teórica es una precisión (y, por 
ende, una mejor base para una contrastación efectiva) de la noción 
kuhniana de “ciencia normal”. También esta noción ha sido aplicada 
al estudio de casos concretos, tales como la evolución de la mecánica 
newtoniana y la de la termodinámica fenomenológica. 

A pesar de su innegable éxito, una de las críticas que se han hecho 
al programa estructuralista es que el aparato metateórico empleado 
es demasiado complicado y que hay que realizar un esfuerzo consi- 
derable para “digerirlo” antes de poder aplicarlo al análisis de pro- 
blemas epistemológicos interesantes. A lo cual los estructuralistas 
(como yo mismo) replican que es la evolución misma de la filospfía 
de la ciencia lo que les ha llevado a dar con un nivel de complejidad 
más elevado, mostrando que los instrumentos conceptuales utiliza- 
dos por íos autores y corrientes precedentes eran demasiado simples 
y/o demasiado vagos, en todo caso insuficientes, para dar cuenta de 
ciertos aspectos esenciales de las teorías científicas. Después de to- 
do, las teorías científicas (y sus relaciones) son objetos, ellos mismos, 
bastante complicados y sería sorprendente que uno pudiera analizar 



144 El desarrollo moderno de la filosofía de la ciencia ( 1890-2000) 


bien objetos tan complejos con instrumentos simples e imprecisos. 
Sea o no demasiado complicada, la metateoría estructuralista ha 
mostrado ser aplicable de manera convincente a muchos más casos 
particulares que las demás metateorías. Es un hecho estadístico fácil 
de verificar. 

Otra crítica frecuente es que aunque la metateoría estructuralis- 
ta haya sido capaz de reconstruir teorías científicas particulares, no 
ofrece, sin embargo, ninguna/ respuesta a los grandes problemas 
epistemológicos y ontológicos que han preocupado a los filósofos 
de la ciencia desde los comienzos. El estructuralismo no nos ayuda 
a decidirnos por concepciones como el empirismo, el realismo, el 
antirrealismo o el instrumentalismo, ni a determinar el papel de la 
inducción o la probabilidad en la investigación científica, ni a acla- 
rar las nociones de ley natural o explicación científica. . . Esta obje- 
ción está hasta cierto punto fundada. El silencio del estructuralismo 
sobre estas cuestiones se debe a razones contingentes (personales), 
pero también es un resultado de la prudencia: sabemos todavía muy 
poco acerca de la auténtica naturaleza y el verdadero funcionamien- 
to de las teorías científicas como para estar en condiciones de dar 
respuestas satisfactorias a todas estas cuestiones. Sin embargo, des- 
de hace algunos años, se han hecho algunos esfuerzos en esta direc- 

• / Q 

cion. 

6. El pluralismo modelístico de Nancy Cartwright y el experimentalismo 
pluralista de Ian Hacking 

Durante los dos últimos decenios del siglo XX, las cuestiones de la 
relación entre los modelos y la experiencia y entre los modelos y 
las teorías generales continuaron atrayendo la atención de los filó- 
sofos de la ciencia, incluso independientemente de una metateoría 
general sobre las ciencias. Nancy Cartwright (Estados Unidos, naci- 
da en 1943) ha estado particularmente interesada en este tema. Su 
filosofía de la ciencia tiene algunos puntos en común con las concep- 
ciones semanticistas, sobre todo con el “pluralismo” metodológico 
de Giere. Desde un punto de vista más general, Cartwrigtht, aun 
perteneciendo a una generación posterior a la de Suppes y sus cola- 
boradores inmediatos, ha sido, sin duda, influida por la escuela de 
Stanford: ella comenzó su carrera precisamente en esta universidad. 

Si estudiamos sus ideas un tanto por separado, es porque su con- 
cepto de teoría sigue siendo bastante clásico en el sentido en que 

9 Véase, por ejemplo, el número especial de la revista Synthese consagrado al 
estructuralismo (vol. ISO, 2002) y que yo compilé. j 



Concepciones modelísticas y emparentadas (1970-2000) 


145 


una teoría general está asociada esencialmente a enunciados gene- 
rales, es decir, a leyes. Pero, por otra parte, podemos subsumir su 
enfoque bajo el conjunto de enfoques modelísticos, puesto que la 
noción de modelo ocupa un papel central en. su filosofía, en detri- 
mento de la noción de teoría, que ocupa uno más secundario. Ade- 
más, los modelos de Cartwright son construcciones hechas, sobre 
todo, para dar cuenta de los experimentos concretos, quizá incluso 
aparte de toda teoría reconocida. Más . aún que en el caso de las 
concepciones modelísticas precedentes, su aproximación se carac- 
teriza por una profunda desconfianza en relación con las preten- 
siones de aplicación “universal” de las leyes fundamentales y de las 
“grandes” teorías científicas; privilegia el carácter “local” de la cons- 
trucción de modelos para dar cuenta de situaciones experimentales 
concretas. 

Se pueden distinguir dos fases en la evolución del pensamiento de 
Cartwright en lo que concierne al papel de las teorías y las leyes fun- 
damentales —dos fases que no son contradictorias, pero en donde 
el énfasis en la cuestión de la relación modelo-experiencia es cierta- 
mente diferente—. En la primera, las teorías y sus leyes fundamenta- 
les mantienen una función no despreciable en cuanto guías para la 
aplicación de modelos a la experiencia, aunque esta función no es la 
que habitualmente se supone —procurar una descripción verdadera 
del mundo real—. La primera obra verdaderamente importante de 
Cartwright, Hozo the Lazos ofPhysics Lie (1983) [Cómo mienten las le- 
yes de la física], señala la dirección que sus reflexiones toman sobre 
el papel de las leyes y las teorías generales: son simplemente* esque- 
mas abstractos, sin verdadero contenido empírico, que tienen por 
misión guiar a los científicos en su construcción de modelos empíri- 
cos. Incluso sin presuponer una distinción neta entre un nivel obser- 
vacional y un nivel teórico, Cartwright distingue dos clases de leyes 
en la física: las leyes fenomenológicas y las teóricas (presuntamente 
“fundamentales”). Tomadas literalmente, las leyes “fundamentales” 
son siempre falsas. Su papel no es describir lo que hay en el mundo 
real, sino sugerir las leyes fenomenológicas que modelan adecuada- 
mente una situación experimental dada. Las leyes fenomenológicas 
no se han de formular necesariamente en un lenguaje observacio- 
nal que preceda a la teoría; puedén incluir conceptos propios de la 
teoría (o, más exactamente, algunas determinaciones concretas de 
los valores de magnitudes teóricas), pero lo importante es que las 
leyes fenomenológicas no pueden ser deducidas directamente de 
las leyes teóricas. Es sólo por procedimientos bastante contingentes 



146 El desarrollo moderno de la filosofía de la ciencia (1890-2000) 


y siempre susceptibles de revisión que las leyes teóricas pueden ser 
interpretadas en casos concretos para producir leyes fenomenológi- 
cas. No hay un procedimiento explícito, menos aún formal, para 
obtener éstas a partir de aquéllas. 

Junto con esta distinción entre leyes fenomenológicas y leyes teó- 
ricas (o fundamentales) podemos constatar una distinción entre tres 
tipos de modelos. Primeramente,, está lo que Cartwright llama des- 
cripciones no preparadas (unprepared descriptions) de los sistemas físi- 
cos estudiados. Se trata de construcciones parecidas a lo que, en 
otras concepciones modelísticas, se denominan “modelos de datos”: 
se reúne todo tipo de información que pueda parecer significativa 
para delimitar los sistemas examinados, sin presuponer la validez 
de la teoría. En mi segundo momento, se construye una descripción 
preparada (prepared description ): se establece un modelo matemático 
concreto (generalmente determinado por una ecuación de aplica- 
ción restringida), sugerida por la teoría, pero no derivable de ella. 
Estas ecuaciones concretas corresponden a lo que Cartwright llama 
“leyes fenomenológicas”. Hay que subrayar que los modelos en este 
estadio no representan imágenes-especulares de la realidad exami- 
nada: contienen simplificaciones, idealizaciones e incluso compo- 
nentes que no pretenden caracterizar elementos reales del sistema: 
“[...] un modelo es el resultado de una ficción. Algunas propie- 
dades asignadas a los objetos en el modelo serán propiedades ge- 
nuinas de los objetos modelados, pero otras serán meramente pro- 
piedades de conveniencia.” 10 Hay, finalmente, modelos abstractos 
determinados por las leyes fundamentales de la teoría utilizada, que 
no tienen casi nada que ver con la experiencia. Ahora bien, una 
laguna importante en la concepción de Cartwright en este punto es 
que la relación entre los modelos (o leyes) fenomenológicos y los 
modelos (o leyes) abstractos no está analizada con precisión. Sólo 
queda sugerida a través de ejemplos. 

Esta laguna está aún presente en sus escritos de la segunda fase, 
como resulta claro en su libro The Dappled World (1999) [El mun- 
do moteado]. En esta obra, la devaluación de las teorías y las leyes 
fundamentales aparece aún kiás acentuada. Las teorías son un ins- 
trumento más entre muchos otros de los empleados para construir 
modelos más o menos adecuados a la experiencia. A veces los mo- 
delos son sugeridos por la teoría, pero en muchos casos no lo son: 
surgen de toda clase de técnicas y “trucos” ad hoc utilizados para 
modelar una pequeña parte de la realidad. Para aclarar este punto, 

10 N. Cartwright, How the Laws of Physics Lie , p. 153. 



Concepciones modelisticas y emparentadas ( 1970-2000) 


147 


Cartwright distingue dos tipos de "modelo”: los modelos interpreta- 
tivos y los modelos representativos. Los primeros se construyen con 
los recursos conceptuales de la teoría dada: los términos abstractos 
de la teoría pasan a ser más concretos en el modelo por medio de 
reglas de correspondencia. Este tipo de modelo, no obstante, no es 
adecuado más que en situaciones experimentales particularmente 
simples. Cuando el sistema estudiado es más complejo, los modelos 
interpretativos fracasan. Es hora de que los modelos representativos 
los sustituyan, y aunque a veces la teoría misma puede sugerirlos, en 
la mayor parte de los casos son independientes. La distinción que 
Cartwright establece entre modelos interpretativos y representativos 
sigue siendo imprecisa, pero, sobre todo, no se ve claramente si se 
trata de una distinción gradual o tajante. 

Con respecto a la cuestión del realismo, la posición de Cartwright 
está muy matizada. En el caso de las teorías generales y de las leyes 
fundamentales y los modelos interpretativos, la interpretación rea- 
lista le parece una tesis muy problemática, que no está justificada en 
lo absoluto. Por el contrario, tiende a adoptar un enfoque realista 
cuando se trata de leyes fenomenológicas o modelos representativos 
y, particularmente, cuando éstos están asociados con experimentos 
robustos llevados a cabo por los científicos. De esta forma, los víncu- 
los causales entre sistemas que genera típicamente un experimento 
de laboratorio serían el único fundamento para una interpretación 
realista de los resultados científicos. 

Esta inclinación por un “realismo experimental combinado a la 
vez con un antirrealismo teórico” está todavía mucho más acentuada 
en el caso del siguiente autor que vamos a tratar en este apartado, 
Ian Hacking. Sin mucha exageración, se le puede describir probable- 
mente como el más importante filósofo de la ciencia experimentalista 
de finales del siglo XX. Su libro fundamental en este sentido, Re - 
presenting and Intervening [Representar e intervenir], aparecido en 
1983 (el mismo año que la obra fundamental de Cartwright), puede 
leerse como una defensa vehemente a favor de la nunca sobreestima- 
da importancia del experimento para la comprensión de la ciencia 
auténticamente empírica y, al mismo tiempo, de la eliminación de 
las, según él, excesivas pretensiones de las teorías generales. A decir 
verdad, Hacking no es el único filósofo de la ciencia contemporá- 
neo que se interesa principalmente por la estructura y función de 
los experimentos científicos, y él mismo fue conducido a esta alta 
valoración de los experimentos por los estudios de caso realizados 
por autores como Alian Franklin y Peter Galison, Con todo, es des- 



148 El desarrollo moderno de la filosofía de la ciencia ( 1890-2000) 


pués de la aparición de su libro que podemos hablar de un “giro 
experimental” {experimental turn) —contrapartida del “giro lingüísti- 
co” de comienzos del siglo XX— en la filosofía de la ciencia de los 
últimos años del siglo XX, Significativamente, Hacking tiene el tipo 
de análisis lógico-lingüístico de la filosofía de la ciencia clásica en tan 
poca estima como lo hace van Fraassen —aun cuando el suyo tenga 
poco que ver con el enfoque de este último—. I 

El doble título del libro de Hacking refleja la estructura de su 
ensayo: en la primera parte encontramos la representación del mun- 
do en la forma de teorías y modelos situada en un primer plano 
(en un sentido próximo a la interpretación de Cartwright, a quien 
se refiere explícitamente). En esta parte se discuten, con particu- 
lar ojo crítico, los primeros enfoques de la filosofía de la ciencia 
desde Garnap y Popper hasta los de van Fraassen, pasando por los 
de Kuhn, Laicatos y otros. De la segunda parte del libro podemos 
decir que comprende una suerte de “fenomenología del experimen- 
to”, que conducirá a una visión completamente nueva de la “esen- 
cia” de las ciencias empíricas. Según Hacking, la controversia acerca 
del realismo, en particular, en relación con las entidades teóricas, 
puede determinarse no en el plano de las teorías, sino a través de 
la consideración de la naturaleza propia de los experimentos. Por 
ejemplo, a partir de una teoría de los electrones, aun cuando ésta 
esté bien confirmada, no se puede derivar sin más lá tesis de que los 
electrones son algo más que ficciones útiles; por el contrario, esta 
conclusión se vuelve mucho más admisible si se hacen experimentos 
con electrones (como el experimento de Millikan de la medición de 
su carga) y se hace imperiosa cuando se construyen aparatos con los 
que se utilizan electrones para provocar interacciones causales con 
otras entidades teóricas. (por ejemplo, con bosones neutrales, como, 
se hace en la moderna física de partículas). 

Ya al comienzo del primer capítulo, Hacking presenta el lema que 
deberá servir como hilo conductor de todo ; el übro: “si [los electro- 
nes] se pueden esparcir, es que son reales”. 11 Y un poco después, 
encontramos una especie de profesión de fe: “lo que me convenció 
de la validez del realismo];. . . ] es el hecho de que hoy haya emisores 
estandarizados con los que podemos esparcir positrones y electro- 
nes”. 12 

Por supuesto, los experimentos son importantes no sólo para for- 
talecer la idea del realismo con respecto a las entidades teóricas, 

11 Hacking, Representing and Intervening, p. 22; trad. esp., p. 40. 

l2 Ibid,, p. 24; trad. esp., p. 42. 



Concepciones modelísiicas y . emparentadas ( 1970-2000) 149 


En un nivel más general de discusión, resultan indispensables para 
conocer la verdadera estructura de la ciencia moderna. Hacking re- 
procha a la filosofía de la ciencia del siglo XX que haya estado dema- 
siado orientada a las teorías; el análisis de la naturaleza y función de 
los experimentos apenas desempeñaban en ella un papel. Y, a conse- 
cuencia de esto, ignoró un componente absolutamente esencial de 
la estructura del conocimiento científico. 

El predecesor admirado de Hacking no es ninguno de los mo- 
dernos filósofos de la ciencia, aunque hace algunas observaciones 
positivas sobre Kuhn, es más bien un pensador de los inicios de la 
revolución científica: Francis Bacon. Hacking se opone a la inter- 
pretación habitual de Bacon como un simple inductivista. A Bacon 
se le debe caracterizar mucho mejor como el primer filósofo de la 
ciencia experimentalista, el primero que fue consciente de la impor- 
tancia de los experimentos como apoyo del conocimiento científico 
y de que las teorías más refinadas son inservibles mientras no se les 
vincule con experimentos. También es importante para Hacking que 
Bacon haya intentado una tipología sistemática o una fenomenolo- 
gía de las distintas clases de experimentos, de forma —por cierto— 
completamente independiente de cualquier tipo de teoría. 

Hay una serie de prejuicios acerca de la naturaleza de los expe- 
rimentos científicos que Hacking quiere eliminar. En primer lugar 
hay que mencionar el idéntico tratamiento de la “observación” y el 
“experimento”. Al igual que Bacon antes que él, Hacking valora la 
observación (incluso la sistemática) como secundaria frente a los au- 
ténticos experimentos. Las observaciones son pasivas, mientras que 
los experimentos implican una activa intervención en el mundo —y 
ésta es la cuestión clave, según Hacking— . Es gracias a esta interven- 
ción que llegamos a tierra firme y evitamos caer en el antirrealismo. 
En segundo lugar, Hacking se dirige decididamente contra la tesis 
propagada por los autores historicistas de la carga teórica de toda 
observación y experimento. Esta tesis es o trivial o lisa y llanamente 
falsa: es trivial si con ella se quiere sólo decir que no podríamos 
llevar a cabo experimentos si no dispusiéramos previamente de una 
idea intuitiva, más bien inarticulada, del asunto que queremos inves- 
tigar; en cambio, la tesis es completamente falsa, si lo que estamos 
afirmando con ella es que los experimentos tienen sentido sólo en 
el marco de una teoría completamente articulada y definida. Para 
apoyar esta afirmación, Hacking pone como ejemplo una serie de 
casos históricos de experimentos importantes que no presupusieron 
ninguna teoría ya articulada y definida. 



150 El desarrollo moderno de la filosofía de la ciencia (1890-2000) 


Last but not least , se dirige Hacking contra el supuesto de una 
función clara de los experimentos. La mayoría de los filósofos de la 
ciencia, al contrario que Bacon, opinan que los experimentos sólo 
tienen valor cuando se los usa para comprobar teorías. También esto 
es falso, de acuerdo con Hacking. Éste no niega que los experimen- 
tos se usen a veces con este fin, pero se trata más de una excepción 
que de una regla. A menudo, los experimentos están inspirados por 
ciertas teorías, pero no para ponerlas a prueba, sino simplemente 
para “ver qué ocurre”. En otros casos, se hacen experimentos para 
determinar el. valor de un parámetro, que está indeterminado en la 
teoría; también se hacen para desarrollar cierta tecnología (piénsese 
en el caso de la máquina de vapor); y, finalmente, se pueden llevar 
a cabo por una curiosidad preteórica o ateórica. . . En una palabra, 
Hacking destaca el valor de la pluralidad de los tipos y funciones de 
los experimentos científicos. 

La obra de Hacking ha tenido una influencia notable en los jó- 
venes investigadores de finales del siglo XX. A esto ha contribuido 
no sólo la novedad de sus tesis, sino seguramente también su estilo 
brillante, refrescante y divertido. Impresionante es también la gran 
cantidad de análisis particularmente detallados de casos históricos, 
sobre todo de la física y la química, que presenta en apoyo de sus 
tesis. Desde un punto de vista lógico estricto, la argumentación de 
Hacking deja un tanto que desear; aunque probablemente es cons- 
ciente de ello: su opinión en este sentido es posiblemente que echar 
mano de ejemplos resulta más convincente que un argumento gene- 
ral. En este punto, Hacking comparte el mismo espíritu que la mayo- 
ría de los filósofos de la ciencia contemporáneos que hemos tratado 
en este capítulo, aunque es cierto que la preferencia de Hacking por 
los ejemplos frente a los argumentos adquiere tintes más drásticos 
que en el resto de autores (dicho sea esto sin ningún ánimo de valo- 
ración). 

Con todo, hay que comentar una laguna importante en el enfoque 
de Hacking. Su experimentalismo margina algunas disciplinas cien- 
tíficas reconocidas, las cuales son nada o poco experimentales. Hay 
una larga serie de disciplinan —piénsese en la astrofísica, una gran 
parte de la biología, la geología, las ciencias sociales en su porción 
más predominante— en las que la experimentación ocupa apenas 
un lugar, ya sea por motivos fundamentales, prácticos o éticos. Si 
realmente decidiéramos contar la experimentación como una carac- 
terística distintiva de las ciencias auténticas, entonces las disciplinas 
que acabamos de mencionar no podrían considerarse “ciencias au- 



Concepciones modelísticas y emparentadas (1970-2000) 


151 


, . ténticas” —una conclusión poco aceptable—. Otro problema del en- 
foque de Hacking tiene que ver con su estrategia de defensa de un 
realismo fundado en lo experimental. Según Hacking, la realidad 
de una entidad postulada por una teoría, como los electrones, está 
asegurada mientras se puedan diseñar procedimientos de labora- 
torio o aparatos que sean capaces de manipular dichas entidades 
y hacer que entren en vínculos causales con otras entidades (otras 
partículas, en el ejemplo preferido de Hacking). Estrictamente ha- 
blando, como filósofos de la ciencia, sólo podemos constatar que los 
científicos experimentales afirman que a través de dichos aparatos 
y procedimientos de laboratorio manipulan las entidades teóricas 
en cuestión y les hacen actuar sobre otras entidades. Aun cuando 
Hacking no deja lugar para el análisis lingüístico en el ámbito de las 
cuestiones sobre filosofía de la ciencia, al menos debiera reconocer 
que entre \?l afirmación de un hecho y ese hecho hay una diferencia. 
¿No podría ocurrir que cuando los físicos experimentales le cuen- 
tan al filósofo de la ciencia Hacking que han disparado un haz de 
electrones y que los hacen interactuar con bosones, solamente estén 
empleando una manera de hablar para expresar ciertas conexiones 
macroscópicamente comprobables entre aparatos observables? És- 
ta sería exactamente la posición defendida por el instrumentalista. 
Hay suficientes ejemplos históricos de estas maneras de expresar- 
se a las que hoy no aceptaríamos dar una interpretación realista: 
los alquimistas hicieron muchos experimentos serios, siempre con 
sustancias observables, donde hablaban de "propiedades ocultas”, 
“elixires”, etc. —todas ellas entidades teóricas que hoy en día ya no 
aceptamos—. O para poner un ejemplo más moderno: los defen- 
sores de la teoría del calórico (todos ellos científicos respetables) 
hicieron muchos experimentos que ellos interpretaban como casos 
de transmisión del calórico y hasta construyeron refinados apara- 
tos para tratar con determinadas cantidades del mismo. Pero, como 
hoy reconocemos, todo ello no hacía real al calórico. Ciertamente, 
Hacking nos debe mejores argumentos para convencernos de que 
los experimentos y aparatos de la moderna física de partículas están 
en mejor situación que los correspondientes experimentos y apara- 
tos de los alquimistas o los teóricos del calórico. 

7. Las nuevas concepciones de la naturaleza de la explicación científica . 

Al final del capítulo consagrado a la fase clásica de la filosofía de la 
ciencia, habíamos constatado que el esquema de Hempel para dar 
cuenta de la naturaleza de la explicación científica, a pesar de sus es- 



152 El desarrollo moderno de la filosofía de la ciencia (1890-2000) 


fuerzos para mejorarlo, entró en una profunda crisis. A partir de los 
años setenta surgen tres nuevos enfoques del tema que rompen radi- 
calmente con el modelo hempeliano y proponen una comprensión 
muy diferente de lo que realmente ocurre en el proceso de expli- 
cación científica. Se los puede caracterizar, respectivamente, como 
pragmático , causalista y unificacionista . No se trata, en principio, de 
enfoques incompatibles, pero cadauno pone diferente énfasis en lo 
que consideran esencial de la explicación científica y ningún autor 
ha conseguido hasta ahora hacer una síntesis coherente de ellos. 

Desde el .punto de vista del contenido y de la metodología em- 
pleada, estos nuevos enfoques no tienen que ver con la última fase 
de la historia de nuestra disciplina —el “modelismo”— . Pero también 
constituyen una verdadera ruptura metodológica con los presupues- 
tos de la fase clásica, sin por ello “caer” en el hístoricismo, y al menos 
dos de ellos (el pragmático y el unificacionista) tienen un “espíritu 
intrínseco” muy próximo al modelismo; por lo demás, ya ha habido 
intentos por parte de ciertos autores de desarrollar explícitamente 
una síntesis entre la visión modelística de las teorías y los nuevos 
enfoques sobre la naturaleza de la explicación científica. 

El representante más significativo del enfoque pragmático es, sin 
duda, Bas van Fraassen (al que también hemos visto como uno de 
los representantes más conocidos del modelismo). Apoyándose en 
sugerencias de autores anteriores, a partir de 1977 desarrolla una 
concepción pragmática que expone de manera sistemática en The 
Scientific Image. Comienza señalando que toda explicación intenta 
ser una respuesta a una pregunta del tipo “¿por qué?”, y que este 
tipo de preguntas no tiene un sentido preciso hasta; que no se tiene 
en cuenta (generalmente de forma implícita) lo que se llama una 
“clase de contraste” (o “de comparación”), en un contexto científico 
determinado, sobre lo que puede ser considerado (pragmáticamen- 
te) como una respuesta aceptable. Así, la pregunta “¿por qué hizo 
una canícula tan fuerte en Francia en 2003?” exige una explicación 
diferente dependiendo de si la clase de contraste remite a Francia 
en comparación con otras regiones del mundo, o bien al año 2003 
en relación con otros años. Esta clase de contraste siempre está de- 
terminada por los intereses de la comunidad científica del momento 
en cuestión. De ahí que la verdadera forma lógica de una pregunta 
del tipo “¿Por qué?”, que busca uña explicación, sea: “¿Por qué A en 
lugar de Bi, B%, . . .?”. La proposición A es el tema de la explicación y 
el conjunto X = { A,Bj , B%, . . .} la clase de contraste. 



Concepciones modelísticas y emparentadas ( 1970-2000) 153 


Ahora bien, según van Fraassen, la indicación del tema y la clase 
de contraste no bastan para reconstruir la forma lógica de una expli- 
cación científica. La razón es que, aun cuando X haya sido fijado, se 
pueden dar diferentes tipos de explicación según la relación consi- 
derada como significativa, en un contexto dado, para dar la explica- 
ción buscada. Para retomar el ejemplo de la canícula, incluso si fija- 
mos como clase de contraste las regiones del mundo, en lugar de los 
años, no quedaremos satisfechos con una. “explicación” que apele al 
hecho de que en Francia, y no en otros países, el termómetro había 
subido al máximo, aun cuando esta constatación sea verdadera. Por 
consiguiente, para determinar realmente la pregunta que pide una 
explicación, es necesario indicar el tipo de respuesta considerada como 
pertinente.. Van Fraassen llama “relación de pertinencia explicativa”, 
R , a este elemento adicional que hay que indicar para obtener una 
explicación adecuada. R es una relación que vincula un conjunto de 
proposiciones factuales, C, con la clase de contraste: CR < A,X > 
si y sólo si C es (en uñ contexto dado) explicativamente pertinente 
para que A haya tenido lugar y no X-A. Estos tres componentes 
combinados < A,X,R > constituyen la “esencia” de una buena ex- 
plicación. Es claro que los dos componentes XyR son dependientes 
del contexto en que la cuestión es planteada y, en este sentido, el 
esquema propuesto por van Fraassen es fuertemente pragmático. 

La relativización pragmática de la noción de explicación propues- 
ta por van Fraassen es generalmente aceptada por la comunidad de 
filósofos de la ciencia, particularmente la idea de clase de contraste.. 
Sin embargo, hay que señalar que este esquema es aún demasiado 
general para dar cuenta de la validez de una explicación propuesta. 
En efecto, si no incorporamos más que algunas restricciones adicio- 
nales a propósito de la relación de pertinencia, se puede mostrar 
fácilmente que podríamos explicar cualquier cosa a partir de cual- 
quier otra, simplemente eligiendo un conjunto C ad hoc que se esti- 
pula como pertinente para < A,X >. Esto nos llevaría a un relativis- 
mo inaceptable. Para decirlo brevemente, el esquema propuesto por 
van Fraassen puede ser visto como una estipulación de condiciones 
necesarias de naturaleza pragmática, pero éstas son claramente in- 
suficientes para determinar un concepto de explicación plenamente 
adecuado. 

Una concepción de la explicación bastante más sustancial, inde- 
pendiente de consideraciones pragmáticas, es la que pone la no- 
ción de causalidad en el centro de una reconstrucción adecuada de 
la explicación científica. Ésta ha sido defendida especialmente por 



154 El desarrollo moderno de la filosofía de la ciencia ( 1890-2000) 


Wesley Salmón (Estados Unidos, 1925-2001), aunque no ha sido el 
único en hacerlo. Salmón ya había hecho contribuciones importan- 
tes al análisis de la explicación estadística en un marco formal más 
o menos próximo al esquema hempeiiano, sobre todo en su obra 
mayor, Statistical Explanation and Statistical Relevance (1971) [Expli- 
cación estadística y relevancia estadística]; pero se fue distanciando 
progresivamente de la tradición /‘clásica” después de haber encon- 
trado en el esquema clásico una dificultad profunda e insalvable: el 
esquema clásico hempeiiano da cuenta, en el mejor de los casos, de 
la relacion .de predictibilidad entre las leyes de la teoría y el hecho 
que se quiere explicar, pero no proporciona una verdadera explica- 
ción. Es así como Salmón se vio llevado a romper con los presupues- 
tos metodológicos de la concepción clásica, que en lo esencial son de 
naturaleza lógico-sintáctica (es decir, concernientes a las relaciones 
entre los enunciados de una explicación), y a buscar la clave de la 
explicación en los eventos o hechos mismos (y no en su expresión 
lingüística). El producto de tal cambio de perspectiva está expuesto 
en su ensayo Scientific Explanation and the Causal Structure ofthe World 
(1984) [La explicación científica y la estructura causal del mundo]. 
Para Salmón, todos los contraejemplos presentados contraía noción 
clásica de explicación pueden ser eliminados si uno abandona el en- 
foque puramente sintáctico (relaciones entre enunciados) y se tiene 
en cuenta el hecho de que, para encontrar una explicación aceptable 
de un hecho a partir de factores antecedentes, además de las relacio- 
nes lógicas entre los enunciados que expresan el hecho en cuestión y 
los factores antecedentes, se supone que hay una relación ontológica 
entre ambos (es decir, “ligada a la naturaleza misma de las cosas”). 
Esta relación no es otra que la relación causal : los hechos (eventos 
o procesos) expresados, por el explanans son la causa del hecho ex- 
presado en el explanandum. Obviamente, no se podrá dar la lista de 
todas las causas que intervienen en la cadena causal que conduce 
al hecho que se quiere explicar; pero nos podremos concentrar, en 
un contexto dado, en los factores causalmente pertinentes que están 
vinculados al explanandum por medio de leyes causales implícitas. 
Estrictamente hablando, la noción clave en esta concepción de tipo 
causalista de la explicación no es la de “causa” en general, si no más 
bien la de “factor causal pertinente”. 

La concepción causalista responde bastante bien a nuestras intui- 
ciones del sentido común sobre el papel que las conexiones causales 
tienen en relación con la naturaleza de las cosas para explicar lo 
que ocurre en el mundo. Sin embargo, el principal problema con 



Concepciones modelisticas y emparentadas ( 1970-2000 ) 


155 


toda concepción causalista, y no sólo con la de Salmón, radica se- 
guramente en la noción misma de causa, que después de Hume ha 
preocupado a sucesivas generaciones de epistemólogos. Es necesa- 
rio admitir que, después de más de doscientos años de discusiones 
en torno a la naturaleza de la causalidad, estamos lejos de tener una 
idea clara, aceptable para todos los filósofos y científicos. Salmón 
intenta dar una definición en términos inspirados por la teoría es- 
pecial de la relatividad, donde la conexión causal entre los eventos 
puede ser caracterizada en términos de la transmisión de información, 
lo que es una noción bastante precisa. Su análisis de la explicación 
en términos de causalidad se ajusta bastante bien a la manera en 
la que se proponen explicaciones de hechos particulares en el mar- 
co de la relatividad especial. Sin embargo, como Salmón mismo ha 
reconocido con la honestidad intelectual que siempre lo ha caracte- 
rizado, es poco probable que el marco conceptual de esta teoría sea 
asimismo aplicable a contextos explicativos de otras teorías físicas 
—por no decir de otrás disciplinas científicas—. 

Esta concepción está igualmente limitada por su inadecuación 
para tratar las explicaciones de leyes científicas a partir de otras 
leyes. Su esquema es, por definición, sólo aplicable a la explica- 
ción de hechos particulares por medio de otros hechos. No sabe- 
mos bien cómo pasar del segundo tipo de explicación al primero. 
Seguramente éste es el punto en el que la tercera concepción de 
la explicación en boga durante los últimos decenios del siglo XX 
—la concepción unificacionista— demuestra sus virtudes. También 
es la concepción más extendida hoy en día entre los filósofos de la 
ciencia interesados en la explicación científica: ¿no es el principal 
objetivo de las ciencias más avanzadas el de explicar las leyes de la 
naturaleza descubiertas por medio de otras leyes más generales? La 
mayor parte de los grandes éxitos explicativos de la ciencia tienen 
una forma que ilustran los siguientes ejemplos: “¿qué es lo que ex- 
plica que las leyes de Kepler sean aplicables a los movimientos de 
los planetas?”. Respuesta: “La teoría de la gravitación universal.” 
“¿Qué explica que la ley de Ohm sea aplicable a la corriente eléctri- 
ca?”. Respuesta: “Las leyes del electromagnetismo,” “¿Qué explica 
la herencia de los rasgos de los seres vivos?”. Respuesta: “Las leyes 
de la genética.” Es para dar cuenta de este fenómeno, tan típico de 
la ciencia moderna, que se desarrolló el programa unificacionista. 
La expücación es vista como un proceso de unificación en nuestra 
comprensión del mundo, un proceso epistémico que consiste en la 
reducción de un número de presupuestos básicos presentes en núes- 



156 El desarrollo moderno de la filosofía de la ciencia (¡I 890-2000) 

tro corpus de conocimiento en un momento dado de la evolución 
del conocimiento científico. j 

Los dos protagonistas de la concepción unificacionista son Mi- 
chael Friedman (Estados Unidos) y Philip Kitcher (Estados Unidos, 
nacido en 1947). Friedman expuso por primera vez su análisis de la 
explicación como unificación en 1974, en un artículo relativamen- 
te breve: “Explanation and Scientific Understanding” [Explicación y 
comprensión científica]. Al igual que Salmón, comenzó planteándo- 
se la cuestión del origen de los numerosos contraejemplos intuitivos 
que ponían en problemas al esquema hempeliano, pero llegó a un 
diagnóstico diferente. El problema principal es saber lo que uno es- 
pera de una explicación científica. No es la subsunción de un hecho 
bajo leyes, sino más bien la explicación de una ley; ya descubierta 
a partir de otras leyes. Ahora bien, el modelo hempeliano es in- 
capaz de reproducir lo esencial de este género de explicación, ya 
que lo reduce a una relación puramente deductiva entre las leyes 
en cuestión. El núcleo de la propuesta de Friedman es que es abso- 
lutamente esencial añadir a la relación de deducción entre leyes el 
componente de la unificación: una ley (o serie de leyes) más gene- 
ral L G explica otra ley más particular lf si se puede deducir L p de 
L g , obviamente, pero si además se pueden deducir de L G otras leyes 
Li,. . . , L n , cuya aceptabilidad es completamente independiente de L p . 
Esto significa, intuitivamente, que L G permite unificar dominios de 
la experiencia que, aparentemente, eran muy diferentes los unos de 
los otros. El ejemplo paradigmático es la explicación de las leyes de 
Kepler por medio de las leyes de Newton: los físicos aceptan éstas 
como un caso auténtico (iy muy importante I) de explicación, no sólo 
porque las leyes de Kepler pueden ser deducidas (con aproximacio- 
nes) de las leyes de Newton, sino porque, de manera análoga, éstas 
permiten deducir igualmente otras leyes conocidas en la época y 
que aparentemente no tenían nada, que ver con las leyes de Kepler, 
tales como la ley de caída libre de Galileo, la ley de las colisiones 
elásticas, etcétera. 

La propuesta de Friedman depende esencialmente de la noción 
de aceptabilidad independiente de una ley a partir de otra y, aunque da 
una precisión técnica de ella, en realidad está sujeta a varios contra- 
ejemplos intuitivos. Kitcher retoma entonces la idea básica de Fried- 
man, pero dándole una forma mucho más refinada. Su idea central, 
que comienza a desarrollar en varios artículos de los años ochentas, 
especialmente en “Explanatory Unification and the Gausal Structure 
of the World” (1989) [Unificación explicativa y la estructura causal 



Concepciones modelisticas y emparentadas (1970-2000) 


157 


del mundo], es que en un proceso de explicación cualquiera, siem- 
pre se parte de un Corpus K de creencias, que se intenta sistematizar 
lo mejor posible. Siempre existen varias sistematizaciones alterna- 
tivas posibles y éstas son comparables según el grado más o me- 
nos elevado de unificación que permitan; entonces, la inferencia de 
una ley perteneciente aZ'a partir de otras creencias generales per- 
tenecientes asimismo a K es explicativa si permite el grado máximo 
de sistematización de K. 

La teoría propuesta por Kitcher es bastante complicada, precisa- 
mente porque debe hacer frente a todo tipo de contrajemplos posi- 
bles. Señalemos solamente que el concepto básico de esta teoría es 
el de esquema argumentativo en la deducción de una ley al interior del 
corpus K. Un esquema argumentativo válido para una buena expli- 
cación debe tener en cuenta no sólo las premisas y la conclusión en 
el proceso deductivo, sino también la vía que conduce de la premisa 
a la conclusión, la cual debe satisfacer condiciones muy restrictivas 
que permitan comparar el poder unificador de diferentes procedi- 
mientos de deducción. El poder unificador depende directamente 
de tres factores: a) el número de conclusiones permitido por el es- 
quema argumentativo; b) el rigor de la vía seguida en el proceso 
deductivo; c) el número de instancias posibles del esquema. 

Es interesante señalar que la concepción de Kitcher, mucho más 
claramente que las concepciones rivales, contiene por principio un 
elemento diacrónico, “dinámico”: el carácter explicativo o no de una 
deducción efectuada en un proceso de sistematización del corpus K 
puede cambiar en el curso de la historia, en el sentido de que un 
esquema argumentativo Si, que proporcionó buenas explicaciones 
en un momento dado en virtud de ser el que tenía el máximo poder 
unificador, puede pasar a ser menos recomendable, ya que se ha 
concebido un nuevo esquema S 2 para K , superior a Si en el sentido 
de las condiciones a) y c) antes mencionadas. La posibilidad de uti- 
lizar su concepción para dar cuenta de la dinámica de la ciencia ha 
sido explícitamente entrevista por Kitcher en su libro The Advance- 
ment of Science (1993) [El avance de la ciencia]. 

Otro hecho remarcable de la concepción de Kitcher es que, aun 
cuando la ha desarrollado en el marco de la concepción enunciativa 
o “clásica” de las teorías científicas ; en tanto que conjuntos de enun- 
ciados, resulta naturalmente “traducible” a una concepción mode- 
lística de las teorías, particularmente en su versión estructuralista. 
La unificación propia a la explicación científica puede ser compren- 
dida de una manera bastante directa como la construcción de una 



158 El desarrollo moderno de la filosofía de la ciencia (1890-2000) 


red teórica en el sentido estructuralista (véase supra, p. 134). Esta 
“traducción estructuralista” de la comprensión unificacionista de la 
explicación ha sido desarrollada de manera especialmente sistemáti- 
ca por Thomas Bartelborth (Alemania, nacido en 1957) en su libro 
Begründungsstrategien (1996) [Estrategias de fimdamentación]. 

8, La discusión acerca-del realismo científico: una breve mirada 
retrospectiva y un todavía más breve-panorama 

En el momento de la transición del siglo XX al XXI, la discusión en 
torno a la posición epistemológica general conocida habitualmente 
como “realismo científico” ocupó un lugar significativo, como tuvi- 
mos oportunidad de comprobar con los autores de la última fase 
de nuestra historia. En los momentos en que se están escribiendo 
estas líneas, dicha discusión sigue ocupando un lugar igualmente 
importante. Por eso, llegados al último apartado de este libro, pare- 
ce oportuno realizar una breve síntesis de los elementos principales 
de esta discusión, que ha sido particularmente controvertida en el 
último tercio del siglo XX. Por obvias razones, la problemática del 
realismo concierne a preguntas fundamentales no sólo de la filoso- 
fía de la ciencia, sino también de nuestra concepción del mundo 
y autocomprensión como seres capaces de conocimiento: ¿qué es 
la realidad?, Apodemos conocerla? ¿es la ciencia el camino correc- 
to, o al menos el mejor camino, para lograr dicho conocimiento? 
También resulta interesante constatar que las diferentes posiciones 
que se han dado en tomo a esta problemática se hayan mostrado 
bastante independientes de los enfoques y corrientes de la filosofía 
de la ciencia en sentido más restringido que hemos visto a lo largo 
de nuestra exposición. Los últimos surgieron a partir de problemas 
y reflexiones específicos de tipo metodológico y teórico-científico, 
mientras que el problema del realismo científico es, por el contrario, 
mucho más general y “filosófico”: se trata de una cuestión acerca del 
.“todo”. 

La controversia en tomo al realismo científico se plantea en el 
marco de un gran círculo de problemas que va más allá de los lí- 
mites de la filosofía de la ciencia. Involucra reflexiones no sólo de 
filosofía de la ciencia, sino también de epistemología en general, de 
semántica y filosofía del lenguaje, de ontología e incluso de historia 
de la ciencia. Por esta razón, y a pesar de su importancia para la fi- 
losofía en general, en este último apartado sólo podremos entrever 
los elementos de la discusión en torno al realismo científico. Una ex- 



Concepciones modelisticas y emparentadas ( 1970-2000 j 


159 


posición en alguna medida detallada de esta problemática hubiera 
rebasado claramente los límites de nuestro estudio. 

A algunos de los participantes en esta controversia ya los hemos 
conocido a lo largo de este libro: al decididamente realista Pop- 
per, a los decididamente antirrealistas Mach, Duhem, Laudan y van 
Fraassen, al “casi-realista” Suppe, al “realista constructivo” Giere, a 
la “semi-realista” Gartwright, al “realista experimental” Hacking. . . 
Otros importantes filósofos de la ciencia de los que hemos hablado 
hasta aquí defienden, por diferentes motivos, una posición que po- 
dría ser denominada “neutralismo”; Carnap y Nagel, por ejemplo, 
pertenecerían al grupo de quienes piensan que la controversia entre 
realismo y antirrealismo no es finalmente más que una mera dispu- 
ta sobre palabras. También entrarían aquí los estructuralistas, para 
quienes todavía sabemos muy poco sobre la estructura y función de 
las teorías científicas individuales y, especialmente, sobre las relacio- 
nes interteóricas concretas entre ellas, para decidir la controversia 
en un sentido o en otro. Necesitamos mucho más análisis formal 
y detallado de dichas estructuras y funciones (en particular, a tra- 
vés de casos de estudio) antes de poder decidir algo al respecto . 13 
Finalmente, en los últimos años del siglo XX, algunos filósofos de 
la ciencia han optado por una vía intermedia, entre el realismo y 
el antirrealismo, a la cual llaman “realismo estructural”. A ellos les 
dedicaremos los últimos párrafos de este apartado. 

Antes de comenzar, parece aconsejable hacer una precisión acer- 
ca del objeto de la controversia. La discusión entre realismo, anti- 
rrealismo y las formas intermedias en filosofía de la ciencia no se 
puede identificar con la discusión entre realismo y antirrealismo en 
la epistemología o en la filosofía en general. No se trata, en este 
caso, de decidir si el árbol que veo tras la ventana es real, es decir, 
independiente de mi mente, de la mente de mis semejantes o de la 
de Dios. Esto es algo que presuponen todos los integrantes de esta 
polémica —incluso los antirrealistas (científicos)—. Más exactamente, 
todos presuponen que la proposición “ahí hay un árbol” no sólo 
tiene sentido, sino que además es verdadera y que continuaría te- 
niendo sentido y siendo verdadera aunque yo o la humanidad entera 

13 Los estructuralistas metateóricos se han pronunciado poco acerca de la cues- 
tión del realismo. Una excepción es J.D, Sneed, con su artículo “Structuralism and 
Scientific.Realism”, de 1983, quien ofrece un análisis formal de los requisitos para 
una discusión productiva del problema del realismo desde el punto de vista estruc- 
turalista más que un criterio claro a favor o en contra del realismo. Las conclusiones 
a las que llega Sneed basado en su análisis sugieren, no obstante, una posición ten- 
dencialmente antirrealista. 



160 El desarrollo moderno de la filosofía de la ciencia (1890-2000) 


dejáramos de existir. El realismo que está en cuestión en la filosofía 
de la ciencia contemporánea es un realismo acerca de las entidades 
específicas que son postuladas por las teorías científicas , es decir, un 
realismo con respecto al valor de verdad de las teorías empíricas (o 
de los enunciados que éstas afirman acerca del mundo). Se trata de 
preguntas como: ¿representan los electrones el mismo tipo de obje- 
tos de conocimiento que los árboles?, o también: ¿son verdaderas las 
ecuaciones de la teoría general de la relatividad, así como las afirma- 
ciones acerca del universo que ésta establece, en el mismo sentido 
en que lo es la proposición “allí hay un árbol”? Los realistas cientí- 
ficos contestan afirmativamente a tales preguntas, mientras que los 
antirrealistas responden negativamente. Los demás sostienen posi- 
ciones intermedias complejas o no dan respuesta alguna, porque 
consideran que la cuestión carece de sentido, o porque consideran 
que no podemos dar una respuesta fundada. 

Es igualmente oportuno distinguir dos componentes del realis- 
mo científico: uno referenciál y otro veritativo o alético (es decir, con- 
cerniente a la teoría de la verdad). Bajo la expresión “componentes 
referenciales del realismo científico” o simplemente “realismo refe- 
rencial” se entiende la tesis según la cual los términos teóricos que 
ocurren en las teorías exitosas y bien establecidas (quizá no todos, 
pero sí la gran mayoría) se refieren a una realidad independiente 
tanto de la mente del científico como de la propia teoría a la que 
pertenecen. Así, por ejemplo, la palabra “electrón” se referiría a una 
partícula real que ha existido al menos desde el Big Bang, muchísi- 
mo antes de que hubiera personas y, por supuesto, teorías físicas, 
mientras que el término de la termodinámica “entropía” se refiere a 
una propiedad real de procesos naturales reales. El componente alé- 
tico del realismo científico, o simplemente el “realismo veritativo”, 
significa la tesis de que las teorías científicas exitosas son verdaderas 
o, al menos, aproximadamente verdaderas. 

Para la mayoría de los filósofos de la ciencia realistas, el realismo 
referenciál y el veritativo van de la mano, lo que prima facie parece 
admisible: cuando consideramos que una teoría es verdadera, ten- 
demos a aceptar que sus conceptos fundamentales se refieren a algo 
real. E inversamente, la mejor razón para afirmar que un término 
teórico característico de cierta teoría T refiere a una entidad real- 
mente existente es que la teoría T es (por lo menos aproximadamen- 
te) verdadera. Aun así, vistas las cosas con más detalle, estos dos 
componentes del realismo científico son independientes el uno del 
otro: se puede defender una versión del realismo referenciál sin de- 



Concepciones modelisticas y emparentadas ( 1970-2000) 161 


fender el realismo veritativo y a la inversa. Como acabamos de ver, 
Hacking sostiene un realismo referencial sin realismo veritativo. El 
enfoque estructuralista puede, por su parte, ser interpretado como 
una defensa más o menos implícita del realismo veritativo con res- 
pecto a la pretensión empírica de las teorías científicas exitosas, sin 
que por ello se tenga que aceptar necesariamente un realismo refe- 
rencial. 

El argumento principal del realismo en el ámbito de la filosofía 
de la ciencia es el llamado argumento del “no hay milagros”. Fueron 
Hilary Putnam (Estados Unidos, 1926) y Richard Boyd (Estados Uni- 
dos, 1942) quienes lo desarrollaron a partir de los años setenta en va- 
rios artículos y contribuciones. 14 Estos autores ofrecen además otras 
líneas de argumentación a favor del realismo en general, que no obs- 
tante son más bien de naturaleza lógico-semántica o de filosofía del 
lenguaje. No podemos entrar en ello aquí. El argumento del “no hay 
milagros” reza básicamente así: sería un milagro inexplicable que las 
teorías físicas y el restó de teorías empíricas bien establecidas, todas 
las cuales contienen términos teóricos, fuesen tan exitosas (como 
de hecho son) con respecto a sus predicciones empíricas sin que 
su contenido teórico no reflejara (al menos aproximadamente) una 
realidad independiente. Puesto que no queremos creer en milagros, 
cuando hay disponibles explicaciones alternativas mucho más admi- 
sibles, se sigue que podemos suponer que las entidades postuladas 
por dichas teorías existen realmente y que las teorías mismas son 
(aproximadamente) verdaderas. Este argumento puede formularse 
como una especie de argumento abductivo : la mejor explicación del 
éxito práctico de una buena teoría científica es que es (aproximada- 
mente) verdadera. 

La réplica antirrealista al argumento del “no hay milagros” no 
se hizo esperar; vino especialmente de los filósofos de la ciencia de 
orientación historicista, encabezados por Laudan: a lo largo de la 
historia de la filosofía de la ciencia ha habido muchas teorías serias 
que hicieron predicciones precisas y exitosas, pero cuyos principios 
actualmente tenemos por falsos. Ejemplos prominentes son: la as- 
tronomía ptolemaica, es decir, geocéntrica, la teoría del flogistó de 
las reacciones de oxidación en la química, la teoría del calórico de 
los fenómenos térmicos. Aunque estas teorías, en sus periodos de 
florecimiento, condujeron a predicciones exitosas notables, hoy las 
consideramos definitivamente falsas. Las entidades por ellas pos- 

14 Véase, por ejemplo, Meaning and the Moral Sciences , de H. Putnam, y Scientijic 
Realism and Naturalistic Epistemology , de R. Boyd. 



162 El desarrollo moderno de la filosofía de la ciencia ( 1890-2000) 


tuladas (epiciclos, üogisto, calórico) son consideradas, asimismo, 
como completamente ficticias. Más generalmente, el antirrealista 
contraargumenta que en el fenómeno histórico recurrente de las 
revoluciones científicas (en el sentido de Kuhn), la suposición de la 
verdad de las teorías precedentes y de la conservación de la refe- 
rencia de sus términos teóricos parece manifiestamente abstrusa o, 
al menos, completamente injustificada. Y lo que vale para las viejas 
teorías puede valer también pará las actuales: sería pretencioso, o 
cuando menos injustificado, suponer que el desarrollo científico ha 
alcanzado un estadio definitivo con respecto a las teorías válidas o 
que estemos próximos a alcanzarlo. 

Naturalmente, el realista científico puede afirmar que sólo nues- 
tras teorías de hoy son verdaderas y que sólo sus términos teóricos 
refieren a entidades reales. Eso sería tanto como afirmar que sólo 
en el caso de la ciencia actual el éxito empírico indiscutible de sus 
teorías podría explicarse a partir de su interpretación realista; en el 
caso de las teorías precedentes, en la medida en que sean incom- 
patibles con las actuales, su éxito empírico igualmente indiscutible 
se debería explicar de alguna otra manera. Es claro que un “actua- 
lismo ahistórico” semejante —así se podida llamar a esta posición—, 
en donde sólo vale lo que es actual , parece completamente ad hoc 
y poco serio desde el punto de vista de la filosofía de la ciencia. 
De estar nosotros justificados en interpretar realistamente nuestras 
teorías empíricas actuales, ¿por qué no debería estarlo también un 
contemporáneo de la teoría del calórico hacia 1800 al interpretar esta 
teoría realistamente, una teoría que entonces estaba bien estableci- 
da, era defendida por los mejores científicos de la época y había de- 
mostrado un éxito empírico innegable? ¿Tan sólo porque esos con- 
temporáneos no vivieron lo suficiente? Con una opinión semejante 
estaríamos peligrosamente cercanos al ridículo. 

La introducción de la noción de aproximación a la verdad (o vero- 
similitud) por parte de los realistas, empezando por Popper y sus 
seguidores, según la cual las viejas teorías son vistas como aproxi- 
madamente verdaderas,, a pesar de ser estrictamente falsas, no nos 
ayuda mejor aquí —y esto por tres motivos: primeramente, porque 
el concepto de aproximación a la verdad o verosimilitud es todo 
menos claro y, hasta el momento, no se ha elucidado de una manera 
adecuada que sirva para la comparación de teorías (véanse las ob- 
servaciones a este respecto en el capítulo 4, § 1)—. En segundo lugar, 
un concepto tal probablemente no sería aplicable a muchos casos de 
revoluciones científicas. Podemos ilustrar esto con un ejemplo intui- 



Concepciones modelísticas y emparentadas ( 1970-2000) 163 


tivo: ¿qué podemos querer decir al afirmar que la teoría del calórico 
es aproximadamente verdadera con respecto a su sucesora, la ter- 
modinámica fenomenológica? Sea. como sea que se quiera entender 
la expresión “aproximadamente verdadero”, está claro que ningún 
científico hoy día aceptaría que la teoría del calórico es “aproxima- 
damente verdadera”. Y en tercer lugar, incluso en los casos en que la 
aplicación del concepto de aproximación entre teorías resulta prima 
facie admisible —como en el caso de la transición de la teoría newto- 
niana de la gravedad a la mecánica relativista—, no es aceptable sin 
más suponer que se mantiene la misma referencia de los términos 
teóricos: aun cuando la teoría newtoniana pueda verse como una 
aproximación de la teoría de la relatividad, términos centrales den- 
tro de la mecánica newtoniana, como “masa” (en el sentido clásico 
de una propiedad intrínseca de los cuerpos), “espacio absoluto” y 
“tiempo absoluto” ya no tienen significado alguno en la mecánica 
relativista; las entidades teóricas a las que estos términos supuesta- 
mente refieren simplemente no existen; se trata y se trató siempre 
de meras ficciones, a veces útiles, a veces no. 

Frente a esta situación tan desagradable para el realista científico, . 
cabe preguntar si éste tiene algún tipo de salida. Si no se pueden 
dar argumentos convincentes ni a favor del realismo referencial ni 
a favor del realismo alético y, todavía menos, a favor de una combi- 
nación de ambos, entonces parece que debemos renunciar a toda 
interpretación realista de las teorías empíricas (por lo menos, en 
su parte teórica) y — nolens volens — nos debemos pasar al bando de 
los antirrealistas (no importa de qué tipo). En los últimos años del 
siglo XX, un grupo de filósofos de la ciencia británicos ha intenta- 
do mostrar que aquí las apariencias engañan. Según ellos, hay una 
versión, del realismo científico que resulta inmune a los argumentos 
antirrealistas que acabamos de ver y que está bien fundamentada 
en el desarrollo histórico real de la ciencia (en cualquier caso, de 
las disciplinas matematizadas). Esta versión se ha llamado “realismo 
estructural”. Entre los defensores más prominentes de esta corrien- 
te (al menos al principio, porque nuestra historia termina con el 
año 2000 y después se han ido añadiendo a la discusión nuevos ele- 
mentos) están los británicos John Worrall, 15 un antiguo discípulo 
de Popper, y Steven French. Fuera de Gran Bretaña, otros filósofos 

15 El primer ensayo de Worrall apareció en 1989 en la revista Dialéctica con el 
título de “Structural Realism: The Best of Both Worlds?”. Los “dos mundos” a los 
que el título refiere, son el realismo científico “normal” y el antirrealismo. Resulta 
sintomático que el autor ponga entre interrogantes el subtítulo de su artículo; su 



164 El desarrollo moderno de la filosofía de la ciencia ( 1890^2000) 

se les han unido y se han propuesto continuar elaborando esta pro- 
puesta y aplicarla a casos de estudio, como, por ejemplo, el ya citado 
Newton Da Costa en Brasil. 

El realismo estructural es, en realidad, una versión más débil del 
realismo científico: en él, no se supone que las teorías empíricamen- 
te exitosas sean verdaderas ni tampoco que los términos teóricos 
específicos se refieran a cosas realmente existentes. No se trata de 
un realismo referencial ni tampoco de uno alético. Se trata de un 
realismo “estructural” en el sentido de que lo que hay que interpre- 
tar realistamente son sólo las estructuras (podríamos decir también: 
los modelos) que nuestras mejores teorías empíricas determinan, ya 
que éstas reflejan de algún modo las auténticas estructuras de la 
realidad. Y esto es justamente lo que explica el éxito empírico de 
dichas teorías. 

Para mostrar la fecundidad de su punto de vista, Worrall nos invi- 
ta a considerar un ejemplo histórico pragmático de cambio teórico 
radical en un ámbito determinado: la evolución de la óptica teó- 
rica del siglo XVII al siglo XX. En este ámbito, primero existió la 
teoría corpuscular de la luz, según la cual la luz está compuesta de 
pequeñas partículas. A partir de esta teoría, se pudieron explicar y 
predecir una serie de fenómenos ópticos, como la reflexión y la ley 
de difracción. A comienzos del siglo XIX, se descubrieron otros fenó- 
menos ópticos, como la polarización de la luz, que parecían incom- 
patibles con la teoría corpuscular. Estos fenómenos representaron 
un estímulo para que Fresnel desarrollase su teoría ondulatoria de la 
luz, de acuerdo con la cual los constituyentes ontológicos de la luz no 
son partículas, sino ondas en un medio material, el llamado “éter”. 
En el último tercio del siglo XIX, la teoría de Fresnel fue sustituida 
por - el electromagnetismo de Maxwell, cuyo concepto fundamental 
no es ni el de partícula ni el de onda, sino el de “campo”, lo que 
constituye una entidad del todo distinta. A principios del siglo XX, 
llegó Einstein con su teoría de los fotones, que lanzó por la borda 
todas las teorías precedentes. Durante todas estas fases de la historia 
de la óptica no se mantuvieron los conceptos fundamentales ni se 
consideraron como (aproximadamente) verdaderas las teorías prece- 
dentes. Lo único que prevaleció a lo largo de este proceso histórico 
fueron ciertas ecuaciones que, independientemente; de su concreta 
interpretación física, reflejaban la estructura real de los fenómenos 

defensa a favor del realismo estructural todavía es cautelosa en este artículo. Entre 
tanto, esta compostura provisional la han abandonado él y sus simpatizantes. 



Concepciones modelísticas y emparentadas (1970-2000) 165 


estudiados. Sólo estas estructuras son interpretables realistamente 
como complejos relaciónales. 

Worrall es lo suficientemente honrado como para citar a uno de 
los precursores de su realismo estructural: Henri Poincaré, quien en 
su La Science et la hypothése llega a una conclusión parecida a la de 
Worrall con respecto al mismo problema que preocupa a realistas y 
antirrealistas hoy en día. Vale la pena reproducir aquí el pasaje de 
Poincaré que cita Worrall, ya que reproduce las ideas más importan- 
tes del realismo estructural: 

Las ecuaciones diferenciales son siempre verdaderas [independiente- 
mente de la teoría particular en la que aparezcan], pueden integrarse 
gracias a ios mismos métodos y los resultados de esta integración son 
siempre los mismos. [...] Estas ecuaciones expresan relaciones y la 
razón por la cual estas ecuaciones son verdaderas es que dichas rela- 
ciones son reales. Las verdaderas relaciones entre objetos reales 
es el único tipo de -realidad que podemos alcanzar. 16 

En lugar de mencionar a Poincaré, Worrall también habría podi- 
do mencionar á un precursor todavía más anterior: Hermann von 
Helmholtz, quién defendió una idea parecida y a quien Poincaré 
seguramente había estudiado. También podría haber citado a un 
autor posterior, como Camap, quien insistió, en varios pasajes de 
su Aufbau, que los auténticos objetos de investigación de las ciencias 
no son sino estructuras. (Éste fue uno de los motivos por los cuales 
Camap creyó que la disputa entre realismo y antirrealismo era, en 
realidad, un seudoproblema.) Pero ésta es una reflexión histórica 
secundaria. Es mucho más importante subrayar que la idea de rea- 
lismo estructural siempre ha encontrado defensores a lo largo de la 
historia de la filosofía de la ciencia, y que nadie que se haya ocupado, 
en alguna medida, del análisis de las teorías científicas matematiza- 
das así como de su evolución ha podido librarse de la impresión 
de que hay al menos algo de verdad en esta idea. Todavía queda 
por aclarar si esta parte de verdad es suficiente para revitalizar un 
realismo científico “sano", por no hablar de un programa general y 
fructífero de filosofía de la ciencia basado en él. Es demasiado pre- 
maturo hacer una valoración crítica definitiva del nuevo realismo 
estructural. Y, en cualquier caso, esto tampoco correspondería al 
propósito de una historia de la filosofía de la ciencia como la que se 
ha intentado exponer en este libro. 


16 Citado por Worrall, op. cit p. 118. 




A modo de conclusión 


En una obra historiográfíca como ésta, destinada a trazar la evo- 
lución de una disciplina más bien joven, con mucha frecuencia el 
autor se siente obligado a especular sobre las perspectivas futuras. 
En este caso, eso equivale a preguntarse: “¿qué futuro espera a la 
filosofía de la ciencia?”. Quizá el lector espere una respuesta a esta 
interrogante. A riesgo de defraudarle, mi respuesta es simplemente 
que no lo sabemos. La historia humana en general es imprevisible, y 
lo es particularmente la historia de las ideas. Si la Unión Soviética y 
el marxismo-leninismo, que era su marco ideológico, han desapare- 
cido de la escena mundial de manera completamente inesperada en 
unos pocos años, lo mismo podría suceder a esta entidad bastante 
más anodina que es la filosofía de la ciencia. . . Para burlarse un 
poco de sus colegas, Feyerabend describió en una ocasión la, filoso- 
fía de la ciencia como “un tipo de locura hasta entonces descono- 
cida”. Ahora bien, cuarenta años después todavía existen locos de 
este género, quienes realizan considerables esfuerzos intelectuales. 
Pero no podemos excluir que dentro de poco acaben por “curarse” 
o que perezcan sin dejar herederos. Quizá en el futuro, las nuevas 
generaciones se convenzan de que el único género de estudio que 
tiene sentido en relación con las ciencias es el análisis sociológico 
o historiográfico; o quizá para entonces se proponga reemplazar 
la filosofía de la ciencia por las ciencias cognitivas —una disciplina 
empírico-formal de contornos mal definidos , 1 pero que parece te- 
ner un objetivo cercano al de la filosofía de la ciencia, tal y como la 
hemos definido en este libro— . . . Nada puedo decir a este respecto. 

1 Véase a este propósito la descripción que ofrece Daniel Andler del carácter de 
las ciencias cognitivas en su Introduction aux Sciences cognitives [Introducción a las 
ciencias cognitivas]. 



168 El desarrollo moderno de la filosofía de la ciencia ( 1890-2000) 


Es posible también que la filosofía de la ciencia no desaparezca 
del todo, pero que sufra una transformación radical. En la breve 
historia que ha tenido desde su institucionalización hasta fines del 
siglo XX, ha sufrido ya dos transformaciones bastante dramáticas: 
la primera, poco después de la Primera Guerra Mundial, cuando 
fue “invadida” por los métodos de la lógica formal; la segunda, a 
mediados de los años sesenta, cuando amenazaba con convertirse 
meramente en una filosofía histórica de la ciencia. La disciplina ha 
sobrevivido bien que mal a estas dos transformaciones, preservando 
a pesar de todo algunos elementos de continuidad, tanto en los te- 
mas considerados como en las concepciones propuestas. Pero quizá 
ocurra de otro modo la próxima vez. 

La única cosa que me parece clara es que la filosofía de la ciencia, 
como su propio nombre indica, no proviene de una forma cualquie- 
ra de análisis de su tema, la ciencia, sino que es una reflexión filosófi- 
ca sobre la ciencia. La filosofía de la ciencia es una rama de la filoso- 
fía —¿acaso podría ser otra cosa?—. Los filósofos tienen el privilegio 
de poder pensar sobre todo tipo de cosas, y los auténticos filósofos 
lo hacen en tanto que filósofos (y no en tanto que psicólogos, soció- 
logos, historiadores, etc.). Si hay y si, lo que es verosímil, continuara 
habiendo filosofía del lenguaje, filosofía de la religión, filosofía del 
arte, filosofía de la política (y también, claro está, una filosofía de 
las matemáticas), sería muy sorprendente que desapareciera el tipo 
de filósofo que se ocupa de analizar filosóficamente este producto 
intelectual tan particular que representa el conocimiento científico. 
¿Por qué, entonces, el objeto “ciencias empíricas” debería quedar 
fuera del alcance del análisis auténticamente filosófico? Seguramen- 
te, la filosofía entera podría desaparecer. Pero estoy seguro de que 
el lector que me haya seguido hasta aquí estará de acuerdo conmigo 
en esto: dicha eventualidad no es deseable en absoluto. 



Bibliografía 


Adams, E.W., “The Foundafions of Rigid Body Mechanics and the Deri- 
vation of its Laws from íhose of Particle Mechanics”, en L. Henkin, 
P. Suppes, A, Tarski (comps.), The Axiomatic Method with Special Reference 
to Geometry andPhysics , Amsterdam, North-Holland, 1959, pp. 250-265. 

Andler, D. (dir.), Introduction aux Sciences cognitives [1992], 2a. ed,, Galli- 
mard, París, 2004. 

Andler, D., A. Fagot-Largeault, B. Saint-Serain (dirs.), Philosopkie des Sciences, 
Gallimard, París, 2002, 2 vols. 

Bachelard, G., Le Nouvel Esprit scientifique [1934], Alean, París, 1957. [Ver- 
sión en castellano; El nuevo espíritu científico , trad. Ricardo Sánchez, Nue- 
va Imagen, México, 1989.] 

, La Psychanalyse dufeu , Gallimard, París, 1938. [Versión en castellano: 

Psicoanálisis del fuego , Alianza, Madrid, 1966.] 

, La Formation de VEsprit scientifique, V rin, París, 1938. [Versión en 

castellano: La formación del espíritu científico, trad. José Babini, Siglo XXI, 
Buenos Aires, 1972.] 

Balzer, W., C.U. Moulines yJ.D. Sneed, An Architectonic for Science, Reidel/ 
Kluwer/Springer, Dordrecht, 1987. 

Balzer, W. y C.U. Moulines (comps.), Structuralist Theory of Science . Focal 
Issues, New Results, Walter de Gruyter, Berlín, 1996. 

Balzer, W., C.U. Moulines y J.D. Sneed (comps.), Structuralist Knowledge 
Representation: Paradigmatic Examples, Rodopi, Amsterdam, 2000. 

Barberousse, A., M. Kistler y P. Ludwig, La philosopkie des Sciences au XXe 
siécle , Flammarion, París, 2000. 

Bartelborth, T., Begründungsstrategien , Akademie-Verlag, Berlín, 1996. 

Bloor, D., Knowledge and Social Imagery, Routledge and Kegan Paul, Lon- 
dres, 1979. [Versión en castellano: Conocimiento e imaginario social , trads. 
Emmanuel Lizcano y Rubén Blanco, Gedisa, Barcelona, 1998.] 



170 El desarrollo moderno de la filosofía de la ciencia (1890-2000) 


Boyd, R., “Scientific Realism and Naturahstic Epistemology”, Symposia and 
Invited Papers , 1980, vol. II, The University of Chicago Press, Chicago, 
pp. 613-662. 

Braithwaite, R.B., Scientific Explanation, Cambridge University Press, Cam- 
bridge, 1953. [Versión en castellano: La explicación científica , trad. Víctor 
Sánchez de Zavala, Tecnos, Madrid, 1965.] 

Bridgman, P.W., The Logic of Modern Pkysics [1927], 2a. ed., MacMillan, 
Nueva York, 1954. ¿ú 

Canguilhem, G., Le Normal et le páthologique [1943], 2a. ed., PUF, París, 
1962. [Versión en castellano: Lo normal y lo patológico. Siglo XXI, México, 
1966.] 

Camap, R., Der logische Aufbau der Welt [1928], 2a. ed., Meiner, Hamburgo, 
1998. [Versión en castellano: La construcción lógica del mundo , trad. 
Laura Mués, Universidad Nacional Autónoma de México-Instituto de 
Investigaciones Filosóficas, México, 1998.] 

— - — , “Testability and Meaning”, Philosophy of Science , vols. 3 y 4, 1936- 
1937, 

*, Logical Foundations of Probability [1950], 2a. ed., University of Chica- 
go Press, Chicago, 1962. 

, The Continuum of Inductive Methods, University of Chicago Press, 

Chicago, 1952. 

, “The Methodological Character of Theoretical Terms”, en H. Feigl 

y M. Scriven (comps.), Minnesota Studies in the Philosophy of Science, vol. I, 
University of Minnesota Press, Mineápolis, 1956, pp. 38-76, [Versión 
en castellano: “El carácter metodológico de los términos teóricos”, en 
L. Olivé y A.R.. Pérez Ransanz (comps.). Filosofía de la ciencia: teoría y 
observación. Siglo XXI, México, 1989.] 

, “Intellectual Autobiography”, en P.A. Schilpp (ed.), The Philosophy 

of Rudolf Carnap, Open Court, La Salle, 1963, pp. 1-84. [Versión en 
castellano: Autobiografía intelectual , trad. C. Castells, Paidós, Barcelona, 
1992.] ' 

, Philosophic Foundations of Physics, Basic Books, Nueva York, 1966. 

¡Versión en castellano: Fundamentación lógica de la física, trad. N. Míguez, 
Sudamericana, Buenos Aires, 1969.] 

Camap, R. y R. Jeffrey, Studies in Inductive Logic and Probability, University 
of California Press, Berkeley, 1971. 

Cartwright, N., How the Laws of Physics Lie, Clarendon Press, Oxford, 1983. 

,'The Dappled World , Cambridge University Press, Cambridge, 1999. 

Diederich, W., A. Ibarra y T. Mormann, “Bibliography of Structuralism”, 
Erkenntnis, 30/3, 1989 (la. versión); 41/3, 1994 ^2a. versión). 

Donovan, A., L. Laudan y R. Laudan (comps.), Scrutinizing Science: Empirical 
Studies of Scientific Change, Kluwer, Dordrecht, 1988. 

Duhem, P., La théorie physique, son objet, sa structure [1906], 2a. ed., Vrin, 
París, 1981. [Versión en castellano: La teoría física . Su objeto y su estructura, 
trad. María Pons Irazazábal, Herder, Barcelona, 2003.] 



Bibliografía 


171 


Duhem, P., Le systéme du monde, Hermann, París, 1913-1959, 10 vols, 

Feyerabend, P.K., “Das Problem der Existenz theóretischer Entitáten”, en 
E. Topitsch (ed.), Probleme der Wissenschaftstheorie, Springer, Viena, 1960. 

, “Explanation, Reduction, and Empiricism”, en H. Feigl y G. Maxwell 

(comps.), Minnesota Studies in the Philosophy of Science, vol. III, University 
of Minnesota Press, Mineápolis, 1962. 

, “Against Method”, en N. Radner y S. Winokur (comps.), Minnesota 

Studies in the Philosophy of Science, vol. IV, University of Minnesota Press, 
Mineápolis, 1970. [Versión en castellano: Contra el método , Ariel, Barce- 
lona, 1974.] 

Foucault, M., Naissance de la clinique, PUF, París, 1963. [Versión en caste- 
llano: El nacimiento de la clínica , Siglo XXI, México, 1966.] 

Friedman, M., “Explanation and Scientifíc Understanding”, The Journal of 
Philosophy, vol. 71, no. 1, pp. 5-19. 

Giere, R., Explaining Science, University of Chicago Press, Chicago, 1988. 

, Cognitive Models of Science, University of Minnesota Press, Mineápolis, 

1992. 

Goodman, N., Fact, Fiction and Forecast, Harvard University Press, Cam- 
bridge, Mass., 1955. 

Granger, G.-G., Pensée formelle et Sciences de Vhomme, Aubier, París, 1966. 

Hacking, I., Representing and Intervening, Cambridge University Press, Cam- 
bridge, 1983. [Versión en castellano: Representar e intervenir, trad, Ser- 
gio Martínez, Paidós/Universidad Nacional Autónoma de México, Mé- 
xico/Buenos Aires/Barcelona, 1996.] 

Hempel, C.G., “The Theoretician’s Dilemma: A Study in the Logic of 
Theory Construction”, en H. Feigl, M. Scriven y G. Maxwell (comps.), 
Minnesota Studies in the Philosophy of Science, vol. II, University of Minne- 
sota Press, Mineápolis, 1958; incluido posteriormente en su libro Aspects 
of Scientifíc Explanation , Free Press, Nueva York, 1965. [Versión en cas- 
tellano: “El dilema del teórico”, en La explicación científica , trad. Néstor 
Míguez et al, Paidós, Barcelona/México, 2005.] 

Hempel, C.G. y P. Oppenheim, “Studies in the Logic of Explanation”, Philo- 
sophy of Science, vol. 15, no. 2, 1948, pp. 135-175; reproducido posterior- 
mente en Aspects. [Versión en castellano: “La lógica de la explicación”, 
en La explicación científica .] 

Hertz, H., Prinzipien der Mechanik, Leipzig [1894]; reimp. Wissenschaftliche 
Buchgesellschaft, Darmstadt, 1963. 

Hesse, M., Revolutions and Reconstructions in the Philosophy of Science, Har- 
vester Press, Brighton, 1980. 

James, W., The Meaning of Truth [1909], Harvard University Press, Cam- 
bridge, 1975. [Versión en castellano: El significado de la verdad, trad. San- 
tos Rubiano, Daniel Jorro, Madrid, 1924.] 

Janich, P., Die Protophysik der Zeit, Bibliographisches Institut, Mannheim, 
1967. 



172 El desarrollo moderno de la filosofía de la ciencia ( 1890-2000) 


Kant, I., Kritik der reinen Vernunft [1781]. [Versión en castellano: Crítica de 
la razón pura , trad. P. Ribas, Alfaguara, Madrid, 1978.] 

, Metaphysische Grundlagen der Naturwissenschaft [1786]. [Versión en 

castellano: Principios metafísicos de la ciencia de la naturaleza , trad. C. 
Másmela, Alianza, Madrid, 1989.] 

Kitcher, P., “Explanatory Unifícation and the Causal Structure of the 
World”, en P. Kitcher y W. Salmón (comps.), Scientific Explanation , Uni- 
versity of Minnesota Press, Mineápolis, 1989. 

, The Advancement of Science, Oxford University Press, Oxford, 1993. 

[Versión en castellano: El avance de la ciencia, trad. H. Islas y L. Manrí- 
quez, Universidad Nacional Autónoma de México-Instituto de Investiga- 
ciones Filosóficas, 2001.] 

Koyré, A., Études galiléennes [1933], 2a. ed., Hermann, París, 1966. [Versión 
en castellano: Estudios galileanos , Siglo XXI, México, 1966.] 

, Études newtoniennes [1968], 2a. ed., Gallimard, París, 1985. 

Krantz, D., R.J. Luce, P. Suppes y A. Tversky, Foundations of Measurement, 
Academic Press, Nueva York, 1971-1989, 3 vols. 

Kuhn, T.S., The Copernican Revolution , Harvard University Press, Cam- 
bridge, Mass., 1957. [Versión en castellano: La revolución copernicana , 
trad. Doménech Bergadá, Ariel, Barcelona, 1978.] 

, The Structure of Scientific Revolutions [1962], 2a. ed., Universtiy of 

Chicago Press, Chicago, 1970. [Versión en castellano: La estructura de las 
revoluciones científicas. Fondo de Cultura Económica, México, 1986.] 

, “Theory-Change as Structure-Change: Comments on the Sneed 

Formalism”,' Erkenntnis, no. 10, vol. 2, 1976, pp. 179-199, incluido en 
The Road since Structure . [Versión en castellano: "Cambio de teoría como 
cambio de estructura: comentarios al formalismo; de Sneed”, en El 
camino desde la estructura .] 

, The Essential Tensión. Selected Studies in Scientific Tradition and Change, 

University of Chicago Press, Chicago, 1977. [Versión en castellano: La 
tensión esencial, trad. Roberto Helier, Fondo de Cultura Económica, 
México, 1982.] 

, The Road since Structure: Philosophical Essays 1970-1993, University of 

Chicago Press, Chicago/Londres, 2000. [Versión en castellano: El camino 
desde la estructura, ensayos filosóficos 1970-1993 , trad. A. BeltrányJ. Romo, 
Paidós, Barcelona/Buenos Aires, 2002.] 

Lakatos, I., “Falsification and the Methodology of Scientific Research Pro- 
grammes”, en I. Lakatos y A. Musgrave (comps.), Criticism and the Growth 
of Knowledge, Cambridge University Press, Cambridge, 1970; posterior- 
mente compilado en I. Lakatos, The Methodology of Scientific Research Pro- 
grammes, Cambridge University Press, Cambridge, 1978. [Versión en cas- 
tellano: “La falsación y la metodología de los programas de investigación 
científica”, en La crítica y el desarrollo del conocimiento, trad. F. Hernán, 



Bibliografía 


173 


Grijalbo, Barcelona/México, 1975 y también en I. Lakatos, La metodolo- 
gía de los programas de investigación científica, trad. J.C. Zapatero, Alianza, 
Madrid, 2002.] 

Laudan, L., Progress and its Problems , University of California Press, Berkeley, 
1977. [Versión en castellano: El progreso y sus problemas , Encuentro, 
Madrid, 1986.] 

Laugier, S. y P. Wagner (comps.), Philosophie des Sciences , tomo 1: Théories, 
experiences et méthodes , y tomo 2: Naturalismes et réalismes , Vrin, París, 
2004. 

Lorenzen, P., Einführung in die operative Logik und Mathematik , Springer, 
Berlín, 1955. 

Losee, J., An Historical Introduction to the Philosophy of Science , Clarendon 
Press, Oxford, 1972. [Versión en castellano: Introducción histórica a la 
filosofía de la ciencia , trad. A. Montesinos, Alianza, Madrid, 1978.] 

Ludwig, G., Die Grundstrukturen einer physikalischen Theorie , Springer, Ber- 
lín, 1978. 

Mach, E., Die Mechanik in ihrer Entwicklung. Historisch-kritisch dargestellt , 
Brockhaus, Leipzig, 1883. [Versión en castellano: Desairollo histórico - 
crítico de la mecánica , trad. j. Barbini, Espasa-Calpe, Buenos Aires, 1949.] 

, Die Analyse der Empfindungen , Fischer, Jeria, 1886. [Versión en cas- 
tellano: Análisis de las sensaciones , trad. E. Ovejero y Maury, Alta Fulla, 
Barcelona, 1987.] 

McKinsey, J.C.C., A. Sugar y P. Suppes, “Axiomatic Foundations of Classical 
Particle Mechanics”, Journal of Rational Mechantes and Analysis, vol. 2, 
1953, pp, 253-272. 

Moulines, C.U., Exploraciones metacientíficas, Alianza, Madrid, 1982. 

(ed.), “Structuralism. Special Issue”, Synthese , 130, 2002, pp. 1-11. 

Nagel, E., The Structure of Science, Harcourt, Nueva York, 1961. [Versión en 
castellano: La estructura de la ciencia , trad. N. Míguez, Paidós, Barcelona, 
1981.] 

Neurath, O., R. Camap y H. Hahn, Wissenschaftliche Weltaujfassung. Der 
Wiener Kreis, Wolf, Viena, 1929. 

•Newton, I., Philosophia Naturalis Principia Mathematicci [1687], ed. A. Koyré 
e I.B. Cohén (según la 3a. ed.), Harvard University Press, Cambridge, 
Mass., 1972. [Versión en castellano: Principios matemáticos de la ciencia 
natural , trad. E. Rada García, Alianza, Madrid, 1987, 2 vols.] 

Nicod, J., La Géometrie dans le monde sensible [1924], 2a. ed., PUF, París, 
1962. 

Niiniluoto, I., Truthlikeness , Reidel/Kluwer, Dordrecht, 1987. 

Poincaré, H., La Science et Vhypothése;[ 1902], Flammarion, París, 1968. [Ver- 
sión en castellano: La ciencia y la hipótesis , trad. A.B. Besio y J. Banfi, 
Espasa-Calpe, Buenos Aires, 1945.] 

, Derniéres pensées [1913], Flammarion, París, 1968. [Versión en cas- 
tellano: Últimos pensamientos , trad. J. Banfí y A.B. Besio, Espasa-Calpe, 
Buenos Aires, 1946.] 



174 El desarrollo moderno de la filosofía de la ciencia ( 1890-2000) 


Popper, K.R., Logik der Forschung , Springer, Viena, 1935. [Versión en cas- 
tellano: La lógica de la investigación científica, trad. V. Sánchez de Zavala, 
Tecnos, Madrid, 1962.] 

, Objective Knowledge, Clarendon Press, Oxford, 1972. [Versión en 

castellano: Conocimiento objetivo , trad. C. Solís, Tecnos, Madrid, 1974.] 

Quine, W.V.O., From a Logical Point of. View, Harvard University Press, 
Cambridge, Mass., 1953. [Versión en castellano: Desde un punto de vista 
lógico , trad. M. Sacristán, Ariel, Barcelona, 1962.] 

, “Dos dogmas del empirismo”, en Desde un punto de vista lógico , 

pp. 76-78. 

, “On Empirically Equivalen! Systems of the World”, Erkenntnis , 9, 

1975, pp. 313-328. 

Ramsey, F.P., The Foundations of Mathematics and Other Logical Essays, 
ed. R.B. Braithwaite, Routledge and Kegan Paul, Londres, 1931; reedi- 
ción de 2000. [Versión en castellano del artículo “Theories” contenido 
en este libro en J.L. Rolleri (comp.), Estructura y desarrollo de las teorías 
científicas , Universidad Nacional Autónoma de México-Instituto de Inves- 
tigaciones Filosóficas, México, 1986.] 

Reichenbach, H., Wahrscheinlichkeitslehre , Sijthoof, Leyde, 1935. 

, Experience and Prediction , University of Chicago Press, Chicago, 1938. 

Russell, B., Our Knowledge of External World [1914], 2a. ed., Open Court, 
Chicago, 1929. [Versión en castellano: Nuestro conocimiento del mundo 
externo , trad. R.J. Velzi, Losada, Buenos Aires, 1946.] 

Salmón, W., Statistical Explanation and Statistical Relev anee, University of 
Pittsburgh, Pittsburgh, 1971. 

, Scientific Explanation and the Causal Structure óf the World , Princeton 

University Press, Princeton, 1984. 

Schlick, M. } Allgemeine Erkenntnislehre [1918], 2a. ed,, Suhrkamp, Frankfurt, 
1979. [Versión en inglés: General Theory of Knowledge, Springer, Nueva 
York, 1974.] 

Sneed, J.D., The Logical Structure of Mathematical Physics [1971], 2a. ed., . 
Reidel/IÜuwer, Dordrecht, 1978. 

Stegmüller, W., Theorie und Erfahrung, Springer, Berlín, 1970.' [Versión en 
castellano: Teoría y experiencia, trad. C.U. Moulines, Ariel, Barcelona, 
1979.] 

, Theorienstrukturen und Theoriendynamik , Springer, Berlín, 1973. [Ver- 
sión en castellano: Estructura y dinámica de teorías , trad. C.U. Moulines, 
Ariel, Barcelona, 1983.] 

, The Structuralist View of Theories, Springer, Berlín, 1979. [Versión 

en castellano: La concepción estructuralista de las teorías , trad. J.L. Zafio 
Ferrer, Alianza, Madrid, 1981.] 

Suppe, F., The Meaning and Use of Models in Mathematics and the Exact 
Sciences , tesis doctoral, University of Michigan, Ann Arbor, 1967. 



Bibliografía 


175 


Suppe, F. (ed.), The Structure ofScientific Theories, University of Illinois Press, 
Urbana, 1974. [Versión en castellano: La estructura de las teorías científicas , 
trad, P. Castrillo y E. Rada, Editora Nacional, Madrid, 1979.] 

, The Semantic Conception of Theories and Scientific Realism, University 

of Illinois Press, Urbana, 1989. 

Suppes, P., Introduction to Logic [1957], 2a. ed., Dover, Nueva York, 1999. 

, Models and Methods in the Philosophy of Science, Kluwer, Dordrecht, 

1993. 

, “Representation Theory. and the Analysis of Science”, Philosophia 

Naturalis, 25, 1988, pp. 254-268. 

, Set-Theoretical Structures in Science , mimeografiado, Stanford Univer- 
sity, Palo Alto, California, 1967. 

Van Fraassen, B., The Scientific Image , Clarendon Press, Oxford, 1980. 
[Versión en castellano: La imagen científica , trad. S. Martínez, Paidós/ 
Universidad Nacional Autónoma de México, México, 1996. 

, Laws and Symmetry , Clarendon Press, Oxford, 1989. 

Wagner, P. (dir.), Les Philosophes et les Sciences, Gallimard, París, 2002. 

Wittgenstein, L., Logischphilosophische Abhandlung. Tractatus logico-philo- 
sophicus , Routledge and Kegan Paul, Londres, 1922; reedición en L. Witt- 
genstein, Werkausgabe, tomo 1, Suhrkamp, Frankfurt, 1989. [Versión en 
castellano: Tractatus logico-phüosophicus, edición bilingüe, trad. J. Muñoz 
e L Reguera, Alianza, Madrid, 1987.] 




Adams, E.W. 117-118, 126-127, 
129, 140-141 
Aristóteles 12 

Asociación Ernst Mach 12i 38 

Bachelard, G. 32-33 . 

Bacon, F. 12, 149-15.0 

Balzer, W. 136 

Bar-Hillel, Y. 135 

Bames, B. 105 

Bartelborth T. 158 

Bauhaus 38 

Beth, E.W. 125 

Bloor, D. 105, 107 

Bohr, N. 100 

Boltzmann, L. 12 

Bourbaki, N. 112, 123, 134-135 

Boyd, R. 161 

Braithwaite, R.B. 65, 69, 109 
Bridgman, P.W. 46, 58-59, 61, 63, 
122 


Cahn, R. 10 
Canguilhem, G. 32-34 
. Cantor, G. 24, 29 
Carnap, R. 23, 34, 38-45, 47, 55-61, 
63-65, 69, 72-73, 80, 84, 95, 109, 
124, 148, 159, 165 
, Gartwright, N. 144-148, 159 


índice onomástico 


Gassirer, E. 16 
Cavaillés, J. 31 

Círculo de Viena 12, 36-38, 41, 44- 
47, 50-53, 83 
Gomte, A. 14-15 
Copémico, N. 87 

Da Costa, N. 124, 164 
De Donato, X. 10 
Debru, C. 9, 34 
Descartes, R. 12 
Diederich, W. 136n 
Di Francia, T. 124 

Duhem, P. 26-28, 32, 73, 75-76, 
127, 159 


Einstein, A. 21, 25, 87, 164 
Escuela de Erlangen 61-62, 104 
Escuela de Munich 136 
Escuela de Stanford 111-112, 114, 
117, 134, 138, 144 


Feyerabend, P.K 84, 92-96, 98, 104- 
. 105, 167 
Foucault, M. 34 
Frege, G. 24, 29, 35, 71 
French, S.. 163 
Fresnel, A.-J. 164 
Friedman, M. 156 



178 El desarrollo moderno de la filosofía de la ciencia (1890-2000) 


Fraassen, B. van 124-131, 133, 148, 
152-153, 159 
Franklin, A. 147 


Galilei, G. 27, 33, 156 

Giere, R. 124, 131-134, 144, 159 

Goodman, N. 81-82 


Hacking, I. 144, 147-151, 159, 161 
Hahn, H. 38 
Hanson, N.R. 84, 92, 94 
Hegel, G.W.F. 14, 45 
Heidegger, M. 45 
Helmholtz, H. von 16, 20, 165 
Hempel, C.G. 47, 65, 69, 76-78, 109, 
151 

Hermes, H, 21 
Hertz, H. 20, 24, 28 
Hesse, M. 105-107 
Hilbert, D. 29 
Hintikka J. 57 
Hume, D. 12, 50, 70, 155 


Ibarra, A. 136n 


James, W. 22-23, 28, 40 
Janich, P. 62 
Jeffrey, R. 57 


Kant, I. 13-17, 19, 25, 37, 70, 99 
Kitcher, P. 156-157 
Rnorr-Cetina, K. 105 
Koyré, A. 33, 35 
Krantz, D. 122 

Kuhn, T.S. 35-36, 84-101,' 104-105, 
108, 134-135, 143, 148-149, 162 

Lakatos, I. 84, 96-101, 134-135, 148 
Latour, B. 105 

Laudan, L. 84, 99-102, 159, 161 
Lavoisier, A.L, 87 


Leibniz, G.W. 70 
Lorenzen, P. 61-62 
Losee,J. 13n 
Luce, RJ. 122 

Ludwig, G. 21, 122-123, 140 

Mach, E. 12, 19, 20-24, 27-28, 36- 
40, 63, 159 

McKinsey, J.C.C. 112, 137 
Marx, K. 100 
Maxwell ,J.C. 100, 164 
Mendel, G. 89 
Mili, J. St 14-15 
Minkowski, H. 25 
Moore, G.E. 35 
Mormann, T. 136n 
Moulines, C.U. 10, 136 


Nagel, E. 65, 109, 124, 159 
Neurath, O. 27, 38, 43-45, 47, 51, 84 
Newton, I 12, 14, 21, 33, 54, 80, 87- 
88, 142, 156 
Nicod, J. 24, 31 
Niinüuoto, I. 55 

Oppenheim, P. 76-78 

Peirce, G.S. 28-29, 42 
Platón 106n, 107 

Poincaré, H. 22, 24-27, 40, 75, 165 
Popper, K.R. 43, 47, 51-55, 83, 94- 
96, 98, 109, 148, 159, 162-163 
Protágoras 103, 107 
Przeledd, M. 124 
Putnam, H. 161 

Quine, W.V.O. 26-28, 37, 48, 72-75, 
88, 127, 131 

Ramsey, F.P. 66-70, 135, 
Reichenbach, H. 51 



índice onomástico 


179 


Rodin, A. 10 

Russell, B. 22-24, 29, 35, 39-40, 63, 
71 


Salmón, W. 154-156 
Schelling, F.W. 14 

Schlick, M. 12, 37-38, 41, 43-44, 47 
Simón, H. 21 

Sneed, J.D. 99, 108, 134-136, 159n 
Stegmüller, W. 57, 65, 68-69, 99, 
108, 135-136 

Suppe, F. 124, 129-132, 134 
Suppes, P. 107, 112, 115-116, 118- 
119n, 122-126, 128-129, 134, 
137, 144, 159 


Tarski, A. 47, 107, 112, 114n, 137 
Toulmin, S. 84 
Tversky, A. 122 

Wagner, P, 9n, 13n 
Wajnberg, D. 10 
Whitehead, A.N. 24, 29 
Wittgenstein, L. 20, 35, 42 
Wojcicki, R. 124 
Wolff, F. 10 
Wprrall, J. 163-165. 

Zermelo, E. 29 




índice analítico 


abducción 9 

adecuación empírica 127 
afirmación empírica (de una teoría) 
117-118, 141 

analítico/sintético, distinción 13, 
70,72,74 

anarquismo metodológico 94, 98 
antirrealismo 129, 133, 144, 147, 
149, 159 

aplicaciones intencionales 117, 126- 
127, 140-142 

aproximación 132, 139-140, 142, 
145, 162-163 

axiomático, axiomatización 12, 21, 
96, 112-113, 114n, 115 

causalidad 13, 81, 126, 153, 155 
cambio de paradigma 36, 86 
carga teórica de la observación 92, 
94, 149 

ciencia normal 86-87, 90-92, 96- 
98, 143 

ciencias cognitivas 131, 167 
cinturón protector (de un programa 
de investigación) 97 
clase de contraste 152-153 
clase natural 130-131 
compromisos ontológicos 88, 113 


comunidad científica 44, 80, 89, 91, 
93, 105, 110, 117, 131-132, 134, 
152 

conceptos (términos): observaciona- 
les 20, 58, 60-61, 63-64, 66- 
69, 94, 128; teóricos 46, 60-61, 
63-70, 94, 122-123, 160-164; T- 
teóricos 139; T-no-teóricos 139- 
140 

condiciones de ligadura 138-140, 

142 

confirmación (dé leyes) 79, 82 
constructivismo (social) 104 
correspondencia, reglas (o princi- 
pios) de 64-65, 67-68, 85, 90, 
123, 147 

corroboración 54 
cuasi realismo 130-131 

definición operacional 58-61 
diacrónica, perspectiva 14, 34-35, 
83-84, 90 

disposiciones (conceptos disposicio- 
nales) 58-60 

ejemplar 89-92 

electrodinámica 20, 63, 100, 123 
elemento teórico 142-143 



182 El desarrollo moderno de la filosofía de la ciencia (1890-2000) 


empirismo constructivo 18, 126- 
129; lógico 17, 18, 36, 50 
Enciclopedia de la Ciencia Unificada 
45, 84 

enunciados básicos 41, 44, 56 
enunciados reductivos 59-61, 64 
espacio de estados 125, 129-131 
evolución, teoría de la 8; teórica 143 
explanans 76-77, 154; explanandum 
'76-78, 154 

falsabilidad, principio de 52 
fenomenismo 22, 40, 42 
fisicismo 43-44 

fisiología de los sentidos 16-17, 19- 

20 

fundacionismo 42 

generalización simbólica 88-91 
geometría eudídea 13, 25-26, 74 

holismo 26-28, 33, 74 
liomomorfismo 40, 119, 123 

idealismo alemán 14-15 
idealización 44, 130, 132, 146 
inconmensurabilidad 83, 86, 92-93, 
96, 98 

inducción 11, 15, 25, 29, 50, 52, 55, 
69,'78,81,86, 144 


Kepler, leyes de 80, 155-156 

legaliformidad 79-81 
lógica inductiva 55-57 
logicismo 71 

matriz disciplinada 87-90 
mecánica newtoniaua (o clásica) 13, 
20-21, 67, 77, 87-89, 102, 115, 
123, 126, 128, 132, 142-143, 163 


metaciencia, metacientífico 7, 95, 
131 

metateoría 13, 99, 123, 135-136, 
144 

modelos interpretativos y represen- 
tativos 147; potenciales, actuales 
y potenciales pardales 138-141, 
143; de datos 128, 146 
monismo (neutral) 22 

neokantismo 16 
non-statement view 135 
normativo, normativismo 52, 62, 96, 
98 

núcleo teórico (o de un programa 
de investigación) 105 


pertinencia explicativa 153 
positivismo (lógico) 14-15, 17, 34, 
36-38, 45-51, 57, 60-61, 63, 67, 
69-71, 76, 111 
posmodernidad 104 
pragmático, elemento o aspecto 117, 
133 

pragmatismo 22, 28 
predicado conjuntistall2-113, 115- 
118, 125-126 

probabilidad, probabilista, probabi- 
lístico 51, 55-57, 67, 77-78, 90, 
144 

protocolo (enunciados protocolares) 
41-45 

Ramsey, método de 66, 69 
racionalismo crítico 15, 17-18, 52 
realismo (científico) 
red teórica 142-143, 158 
reducción (interteórica) 59, 61, 85, 
94, 155 

reduccionismo 40, 48-49, 57, 72-73, 
76 



índice analítico 


183 


relatividad, teoría de la 8, 19, 21, 25- 
26, 37, 62, 74, 87, 111, 126, 155, 
160, 163 

revolución científica 14, 91-93, 104, 
149 


segundo principio de Newton 21, 
54, 88, 102, 142 
sintético apriori 13-15, 37 
sociologismo 18 
solipsismo 40 

subestructura 127, 128, 139, 140 
subsunción 119, 127, 141, 156 


teorema de representación 122 
termodinámica 16, 20, 27, 46, 54, 
125, 139,143, 160, 163 
tesis de Duhem-Quine 26; de Kuhn- 
Feyerabend 93 

tradición de investigación 88, 100- 
102 

uniformidad (topológica) 140 

verificabilidad, principio de 42, 50, 
52 

verosimilitud 55, 162 
vínculos interteóricos 139-140 




Indice 


Prólogo . 5 

1. Una visión de conjunto . . 11 

1. Los inicios institucionales 11 

2. “Prehistoria” y “protohistoria” 12 

3. Las cinco fases del desarrollo 17 

2. Fase de germinación o de preformación: 

empiriocriticismo y convencionalismo (1890-1918) 19 

1. El programa de Ernst Mach 19 

2. El convencionalismo y el instrumentalismo 24 

3. Dos semillas para el futuro 28 

3. Fase de eclosión (1918-1935) 31 

1. Una excepción francesa 31 

2. El papel de la lógica formal 35 

3. El Círculo de Viena 36 

4. El operacionalismo 46 

5. Un inicio de crisis 47 

4. Crisis del positivismo lógico y consolidación de la filosofía 

de la ciencia clásica (1935-1970) 49 

1. La debacle del verificacionismo, los problemas del 
falsacionismo y las dificultades del inductivismo ..... 49 

2. La crisis del reduccionismo conceptual 57 

3. Una excepción alemana 61 

4. La doctrina de los dos niveles conceptuales .......... 63 

5. El ataque contra la distinción analítico/sintético 

y la tesis sobre la subdeterminación 70 

6. La estructura de la explicación científica 75 



186 El desarrollo moderno de la filosofía de la ciencia (1890-2000) 

7. La naturaleza de las leyes científicas 78 

5. Fase historicista (1960-1985) 83 

1. Paradigmas e inconmensurabilidad, programas 

y tradiciones de investigación 83 

2. El relativismo socio-epistémico 102 

6. Concepciones modelísticas y emparentadas 

(1970-2000) 109 

1. Introducción de carácter general 109 

2. La concepción conjuntista de la escuela de Stanford . . 111 

3. El representacionalismo 118 

4. Las concepciones semanticistas ... 124 

5. El estructuralismo metateórico 134 

6. El pluralismo modelístico de Nancy Cartwright y el 

experimentalismo pluralista de Ian Hacking ... 144 

7. Las nuevas concepciones de la naturaleza de la 

explicación científica 151 

8. La discusión acerca del realismo científico: una breve 

mirada retrospectiva y un todavía más breve 
panorama 158 

A modo de conclusión 167 

Bibliografía 169 

Indice onomástico . . . 177 

Indice analítico . ; — 181 



El desarrollo moderno de la filosofía de la ciencia 
(1890-2000), editado por el Instituto de Investiga- 
ciones Filosóficas de la UNAM, se terminó de impri- 
mir el .2 de agosto de 2011, en los talleres de Edi- 
torial Cromo Color S.A. de C.V. (Miravalle no. 703, 
colonia Portales, Delegación Benito Juárez, 03570, 
.México, D.F.). Para su impresión, realizada en off- 
set, se utilizó. papel cultural de 90 gr; en su com- 
posición y formación tipográficas, llevadas a cabo 
por computádora, se usaron el programa ET£X2e 
y tipos New Baskerville 10.5/12, 9.5/11 y 8.5/10. 

El tiraje consta de 1000 ejemplares.